头版 全部文章 每日资讯

Shield AI 融资 20 亿美元估值翻倍,Meta 豪掷 100 亿美元建 AI 数据中心

Shield AI 融资 20 亿美元,估值翻倍至 127 亿美元

来源:https://www.nytimes.com/2026/03/26/business/dealbook/shield-ai-drones-aechelon-fund-raising.html

Shield AI 今天宣布完成 20 亿美元融资,公司估值达到 127 亿美元——这比去年同期的 53 亿美元翻了一倍多。更值得注意的是,这笔资金的部分将用于收购 Aechelon Technology,一家专注于国防模拟软件的小型科技公司。

Shield AI 的核心产品是基于 AI 的自主飞行系统 Hivemind,该系统不需要 GPS 或远程操控,能让无人机在复杂环境中自主决策。这套系统已被乌克兰等多个国家的军队采用,实战经验正在反过来加速技术迭代。

硅谷对国防科技的态度正在发生微妙转变。过去,“国防"和"VC"几乎是对立词;现在,AI 与自主系统的结合让投资者看到了新的叙事空间。Shield AI CEO Gary Steele 是前 Cisco 高管,他的加盟本身也说明传统科技巨头的人才正在向国防领域流动。

我的看法:这笔融资的估值增速比我想象中更激进。12 个月翻倍的节奏,反映出市场对 AI 军事应用的需求正在从概念验证走向规模部署。不过值得警惕的是,AI 武器化的伦理争议不会消失——Anthropic 与五角大楼的分歧已经说明了这一点。Shield AI 强调遵循国防部规则、保留人类最终决策权,这套话术能否经得起实战考验,还有待观察。


Meta 将德州数据中心投资追加至 100 亿美元

来源:https://www.cnbc.com/2026/03/26/meta-to-spend-10-billion-on-ai-data-center-in-el-paso-1gw-by-2028.html

Meta 今天宣布将其位于德州 El Paso 的 AI 数据中心投资从 15 亿美元大幅追加至 100 亿美元,翻了六倍多。该设施计划在 2028 年上线时达到 1GW 的算力规模,创造 300 个全职岗位和超过 4000 个建筑岗位。

这是 Meta 史上最大单笔数据中心投资。公司同时承诺增加 5000MW 的清洁电力供应,并与非营利组织 DigDeep 合作解决当地用水问题。新设施将采用液冷技术,Meta 预计其用水量将相当于当地一个标准高尔夫球场。

然而,Meta 的 AI 豪赌并未得到华尔街的完全认可。公司股价在 2026 年已下跌 16%,本周更是因两起与 Facebook、Instagram 内容审核相关的法律败诉而单日暴跌 7%。与其他科技巨头不同,Meta 没有云基础设施业务,其巨额投入纯粹服务于自有 AI 产品,这让投资者更加谨慎。

我的看法:Meta 的困境在于它必须自建一切。AWS、Azure、GCP 可以通过对外出租算力来分摊成本,而 Meta 只能靠自己消化。100 亿美元投下去,如果 Llama 系列模型无法在开源生态中建立统治地位,或者 AI 助手无法带来预期的广告变现,这笔投资就会成为沉重的沉没成本。扎克伯格在 AI 基础设施上"All in"的姿态很坚决,但市场还在等待看到回报。


Google 发布 Lyria 3 Pro,AI 音乐生成进入全曲时代

来源:https://chromeunboxed.com/googles-lyria-3-pro-brings-full-length-ai-music-generation-to-gemini/

Google DeepMind 今天推出 Lyria 3 Pro,将 AI 音乐生成从 30 秒片段扩展到完整的 3 分钟曲目。该模型于 3 月 25 日全球上线,支持英语、西班牙语、法语和日语,面向 18 岁以上用户开放。

Lyria 3 Pro 的升级速度惊人。就在上个月,Lyria 3 刚刚登陆 Gemini 应用,当时还只能生成 30 秒的短片段。从 30 秒到 3 分钟,Google 只用了一个月时间——这反映出音乐生成模型的迭代速度正在加快。

目前该功能已在 Gemini 应用的"Create music"工具中可用,用户可以生成完整的伴奏曲目用于视频、播客等内容创作。Google 明显在加速布局多模态 AI,与 Suno、Udio 等音乐生成初创公司展开正面竞争。

我的看法:音乐生成是 AI 多模态竞赛的关键战场。与文本和图像不同,音乐涉及时间维度的连续性,技术门槛更高。Google 能在一个月内实现从片段到全曲的跨越,说明其在音频领域的底层积累相当深厚。这对 Suno、Udio 等初创公司来说是个坏消息——当巨头认真起来,留给独立玩家的窗口期可能比我们想象的更短。


Nvidia CEO Jensen Huang 谈加速计算的未来

来源:https://stratechery.com/2026/an-interview-with-nvidia-ceo-jensen-huang-about-accelerated-computing/

Stratechery 今天发布了 Ben Thompson 对 Nvidia CEO Jensen Huang 的深度采访。这是两人第五次对话,话题涵盖了 CUDA 生态、推理与训练的技术演进、以及刚刚宣布的 Groq 收购。

Huang 在采访中透露了几个关键信息:

首先,Nvidia 的软件工程师现在"100% 使用编码代理”,许多人已经很久没有手写代码了。这些代理不仅能生成代码,还能验证、调试、迭代,将工程师从重复劳动中解放出来专注于架构设计。

其次,关于 Groq 的收购,Huang 解释这是为了覆盖推理延迟的极端低延迟场景。Nvidia 的 GPU 系统已经能覆盖 Pareto 曲线的大部分,但在编码代理等场景中,人类工程师的时间成本比 GPU 更高,因此需要 Groq 的 LPU 来提供极致的低延迟。

第三,Huang 再次强调了 AI 基础设施的"五层蛋糕"理论:电力、芯片、基础设施、模型、应用。他认为美国需要在每一层都保持领先,而不是把各层捆绑在一起限制竞争。

我的看法:Huang 的采访总是信息密度极高。他提到的"100% 工程师使用编码代理"是个惊人的数字——如果属实,这意味着 Nvidia 已经成为自己产品的重度用户,这在大型科技公司中并不常见。关于 Groq 的整合逻辑也很清晰:不是要取代 GPU,而是要在极端延迟场景下补充 GPU。这种"互补而非替代"的定位,可能会成为 Nvidia 未来收购的核心逻辑。


GitHub 可用性跌至 90%,AI 原生开发时代的基础设施危机

来源:https://newsletter.pragmaticengineer.com/p/the-pulse-is-github-still-best-for

《The Pragmatic Engineer》今天发文质疑 GitHub 的可靠性。数据显示,GitHub 过去一个月的可用性已跌至约 90%(即"一个九"),远低于业界通常追求的"四个九"(99.99%)标准。

问题的根源在于 AI 编码代理带来的流量激增。GitHub Actions、Copilot 等 AI 工具正在以前所未有的频率访问代码仓库,而 GitHub 的基础设施似乎未能跟上这种变化。更尴尬的是,GitHub 自己的状态页面已经停止更新,第三方开发者不得不自建监控工具。

文章还提到 GitHub 目前处于"无 CEO"状态(原 CEO Thomas Dohmke 已于 2024 年底离职),这可能加剧了产品方向的迷茫。

我的看法:GitHub 的困境是典型的"创新者窘境"——它定义了现代代码托管的标准,却可能正在错失 AI 原生开发的新范式。当 AI 代理开始像人类开发者一样提交代码、创建 PR、合并分支时,GitHub 的架构是否还能支撑?更重要的是,如果 GitHub 不能快速解决可靠性问题,企业客户可能会开始寻找替代品。GitLab、Bitbucket,甚至新兴的 AI 原生代码平台,都在虎视眈眈。


Simon Willison:从零理解大模型量化

来源:https://simonwillison.net/2026/Mar/26/quantization-from-the-ground-up/

Simon Willison 今天推荐了一篇由 ngrok 工程师 Sam Rose 撰写的技术长文《Quantization from the ground up》。这篇文章用交互式可视化的方式,解释了 LLM 量化的工作原理。

文章的核心发现包括:

  • 16 位到 8 位量化几乎不损失模型质量
  • 16 位到 4 位量化会损失约 10% 质量,但并非简单的线性关系
  • 量化中的"异常值"(outliers)——那些远离正常分布的罕见浮点值——对模型质量至关重要,甚至单个"超级权重"的丢失都可能导致模型输出乱码

Willison 特别提到这是他见过的关于浮点数二进制表示的最佳可视化解释。

我的看法:量化是 LLM 部署的关键技术,但很少有人真正理解其内部机制。Sam Rose 这篇文章的价值在于它不仅告诉你"怎么做",还解释了"为什么"。对于需要在资源受限环境中部署模型的开发者来说,理解 4-bit、8-bit、16-bit 量化之间的权衡至关重要。这篇文章值得收藏。


OpenAI 机器人负责人因五角大楼合同辞职

来源:https://x.com/kalinowski007/status/2030320074121478618

OpenAI 机器人硬件负责人 Caitlin Kalinowski 今天宣布辞职,原因是公司与美国国防部的合作。她在公开声明中表示,这笔交易"在没有明确 AI 战争应用护栏的情况下"被强行推进。

Kalinowski 于 2024 年 11 月从 Meta 的 AR 眼镜团队加入 OpenAI,负责重建公司于 2020 年解散的机器人部门。她的离职是 OpenAI 内部对五角大楼合同反对声音首次公开化。

此前,OpenAI 研究副总裁 Max Schwarzer 已于上周离职加入 Anthropic。两位高管的相继离开,反映出 OpenAI 在商业扩张与伦理承诺之间的张力正在加剧。

我的看法:Kalinowski 的辞职信措辞很硬——“关于原则,而非个人”。这说明 OpenAI 内部的伦理分歧已经公开化。值得注意的是,她提到的"AI 战争应用护栏"恰恰是 Anthropic 与五角大楼争执的核心议题。Anthropic 明确拒绝参与大规模监控和致命自主武器项目,而 OpenAI 的选择显然不同。这种分歧可能会成为两家公司在企业市场争夺中的关键差异化因素。