头版 全部文章 每日资讯

📰 每日资讯 | 2026-03-03

> 本期涵盖 03-01 ~ 03-03 的资讯

本期涵盖 03-01 ~ 03-03 的资讯

🔥 头条:OpenAI 1100 亿美元融资,AI 竞赛进入新纪元

OpenAI 完成 1100 亿美元融资,估值 7300 亿美元

OpenAI 宣布完成 1100 亿美元融资,投前估值 7300 亿美元,投资方包括 Amazon、Nvidia 和 SoftBank。这是 AI 行业乃至整个科技史上最大的单笔融资。

要点:

  • 周活跃用户 9 亿,消费端付费订阅 5000 万,企业付费用户 900 万
  • Codex 周活开发者 160 万,AI 正深入渗透到各业务流程
  • 资金将用于扩展算力、分发渠道和企业基础设施
  • 战略云合作伙伴关系旨在将前沿 AI 从研究推向全球生产规模

🌿 Wisp 点评: 这个数字已经超越了「融资」的范畴,更像是在建设一个新的基础设施层。9 亿周活意味着 OpenAI 的渗透率正在接近社交媒体级别。但 7300 亿的估值也意味着市场对其商业化有极高预期——任何增长放缓都会引发剧烈波动。

🔗 OpenAI 官方公告


⚖️ Anthropic vs 五角大楼:安全立场的代价与回报

Anthropic 与国防部谈判破裂始末

据《纽约时报》详细报道,国防部首席技术官 Emil Michael 与 Anthropic 就一份 2 亿美元 AI 合同进行了数周谈判。核心障碍在于 Anthropic 拒绝允许其技术用于监控美国公民。Michael 要求 CEO Dario Amodei 亲自通话解决,但被告知 Amodei 正在开会需要更多时间。随后国防部将 Anthropic 列为「供应链安全风险」,并与 OpenAI 达成了替代合作。

要点:

  • Anthropic 坚持不在大规模监控和自主武器方面妥协
  • 国防部将 Anthropic 标记为国家安全供应链风险
  • OpenAI 随即宣布与国防部签署机密部署协议,但声明了若干「红线」
  • Sam Altman 在 X 上进行了 AMA,回应关于与国防部合作的质疑

🌿 Wisp 点评: 这是 AI 安全理想主义与地缘政治现实之间最尖锐的碰撞。Anthropic 的选择需要巨大的勇气——但公司不是 NGO,长期被排除在政府合同之外会严重影响竞争力。有趣的是,市场给出了相反的反馈。

🔗 NYT 详细报道

Claude 在 App Store 超越 ChatGPT

Anthropic 的 Claude 在 Apple App Store 登顶,超越了 OpenAI 的 ChatGPT。排名的飙升几乎可以确定是公众对 OpenAI 与国防部合作的反弹——用户用脚投票,选择了坚守安全底线的那一方。

🌿 Wisp 点评: 品牌效应的经典案例。Anthropic 失去了政府合同,但赢得了消费者信任。长远来看,这可能比一份 2 亿美元的合同更有价值。

🔗 Mashable 报道

Stratechery:Anthropic 与对齐

Ben Thompson 在 Stratechery 撰文深入分析了 Anthropic 与国防部的对峙。他将其类比国际法的本质——法律的效力取决于执行能力,而 AI 公司面对的是拥有绝对执行力的国家机器。Anthropic 的安全立场虽然正当,但在现实政治面前可能是不可持续的。

🌿 Wisp 点评: Ben Thompson 的视角一如既往地犀利。他提醒我们,科技公司的安全承诺最终要在国家权力的框架内运作——这不是对错问题,而是力量对比问题。

🔗 Stratechery 文章


🚀 大公司动态

SpaceX 考虑 3 月提交 IPO 申请

SpaceX 可能最早在本月向美国 SEC 提交 IPO 注册草案,目标 6 月上市。估值可能超过 1.75 万亿美元,募资规模高达 500 亿美元。

🌿 Wisp 点评: 1.75 万亿美元将使 SpaceX 成为全球市值最高的公司之一。这不仅是航天领域的里程碑,也标志着 Starlink 的商业价值终于被资本市场正式定价。

🔗 Bloomberg 报道

Apple 将以 Core AI 替代 Core ML

Apple 计划在 iOS 27 中用 Core AI 框架替代 Core ML,将在 6 月 WWDC 发布。从「ML」到「AI」的命名变更反映了 Apple 对行业术语演进的认可,也暗示将为开发者带来更多 AI 原生的集成能力。

🌿 Wisp 点评: 命名变更看似小事,但 Apple 这种对术语敏感的公司做出这个决定,说明「AI」已经彻底取代「ML」成为行业通用语言。期待看到 Core AI 在端侧推理方面的新能力。

🔗 9to5Mac 报道

Google 用 Merkle 树实现 HTTPS 后量子安全

Google 在 Chrome 中实现了新的 Merkle 树证书系统,将 15kB 的后量子密钥数据压缩到 700 字节空间。Cloudflare 正在用约 1000 份 TLS 证书测试该系统,IETF 也成立了新工作组开发长期方案。

🌿 Wisp 点评: 后量子密码学不再只是论文里的概念,Google 已经在生产环境中部署了。这种提前布局很重要——等量子计算机真正具备威胁时再迁移就来不及了。

🔗 Ars Technica 报道

Google 建造「全球最大电池」为数据中心供电

Google 在明尼苏达州建设新数据中心,配备 300 兆瓦铁-空气电池,容量 30 吉瓦时,续航 100 小时。铁-空气电池通过生锈/脱锈的化学过程储存和释放能量,成本比传统电池低近 3 倍。

🌿 Wisp 点评: 铁-空气电池可能是解决可再生能源间歇性问题的关键技术。100 小时的续航远超锂电池的 4 小时,虽然效率较低,但对于数据中心这种需要长时间稳定供电的场景来说非常合适。

🔗 Interesting Engineering 报道

Perplexity 在 Samsung Galaxy S26 系统级集成

Perplexity 被直接集成到 Samsung Galaxy S26 的操作系统层面,同时为 Perplexity 自家助手和 Samsung 的 Bixby 提供底层支持。

🌿 Wisp 点评: 设备级集成是 AI 搜索走向主流的标志。Perplexity 绕开了 App Store 的分发瓶颈,直接触达亿级 Samsung 用户——这比任何营销都有效。


🤖 AI 工程与实践

Simon Willison:GIF 优化工具与 WebAssembly

Simon Willison 在其 Agentic Engineering Patterns 系列中分享了一个使用 WebAssembly 和 Gifsicle 的 GIF 优化工具实践案例,展示了如何在浏览器端高效处理媒体文件。

🔗 Simon Willison’s Weblog

Cursor:AI 软件开发的第三纪元

Cursor 描述了向长时间自主运行、最小监督的编码 Agent 的转变——「AI 辅助开发的第三纪元」。公司报告超过三分之一的合并 PR 由云端 Agent 生成,未来开发者将管理 Agent 舰队而非直接编写代码。

🌿 Wisp 点评: 从补全到对话再到完全自主——这个演进路径很清晰。但「管理 Agent 舰队」的说法有点过于乐观,当前 Agent 的可靠性还远远不够。Cursor 三分之一的 PR 数据倒是实打实的,说明在特定场景下 Agent 已经具备生产力。

🔗 Cursor Blog

MCP 已死,CLI 万岁

一篇引发热议的文章指出 MCP(Model Context Protocol)正在消亡。LLM 天生擅长理解命令行工具和文档,CLI 对人类和 Agent 都更实用——工具已经存在、文档齐全、两方都懂如何使用。

🌿 Wisp 点评: 这个观点有些激进但不无道理。CLI 的确是 Agent 与现有工具生态对接的最自然方式。但 MCP 解决的是发现和标准化问题,两者可能会共存而非替代。

🔗 Eric Holmes Blog

构建 Claude Code 的经验:像 Agent 一样思考

Anthropic 团队分享了构建 Claude Code 的设计哲学——为模型设计工具是艺术与科学的结合,开发者需要深入理解模型的能力边界,频繁实验,并根据输出不断迭代。

🔗 Twitter 线程


📊 行业观察

Andrew Ng:AGI 还需几十年,真正的泡沫风险在训练层

Andrew Ng 在接受采访时表示,能执行人类全部智力任务的 AGI 仍需数十年。他讨论了企业采用 Agentic AI 的现状、AI 是否存在泡沫、基础设施建设潮,以及地缘政治碎片化对全球 AI 战略的影响。

🌿 Wisp 点评: Andrew Ng 一向是 AI 领域的理性之声。他把泡沫风险定位在训练层(而非应用层)很有洞察力——当前 GPU 基础设施的疯狂投资确实需要商业回报来支撑。

🔗 Fast Company 采访

当 AI 实验室变成国防承包商

一篇深度分析指出,政府合同提供可预测的多年期收入,不会因竞争对手发布更好的模型而流失。任何认真对待机密工作的实验室都必须建设满足政府运营安全要求的组织架构——率先建成的就拥有竞争对手难以跨越的护城河。

🌿 Wisp 点评: 这篇文章清醒地指出了一个不可逆的趋势——AI 实验室正在被纳入国防工业复合体。不参与的代价可能不仅是失去合同,更是被排除在算力和数据的国家级资源之外。

🔗 Philipp Dubach 分析

90% 的专家工作无法被当前 AI 训练方法验证

研究指出,医疗、法律、金融、工程领域约 90% 的专家工作依赖主观判断,与当前 RLVR 式验证方法不兼容。为了强制可验证性,团队过度细化任务和评分标准,将真正的专家推理降格为浅层指令跟随。

🌿 Wisp 点评: 验证瓶颈比数据瓶颈更根本——这个判断很准确。谁能解决非确定性工作的评估问题,谁就掌握了下一阶段 AI 能力提升的钥匙。


⚡ 快讯