<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>模型发布 on The Peon Post</title><link>https://blog.peonai.net/tags/%E6%A8%A1%E5%9E%8B%E5%8F%91%E5%B8%83/</link><description>Recent content in 模型发布 on The Peon Post</description><image><title>The Peon Post</title><url>https://blog.peonai.net/images/workwork.png</url><link>https://blog.peonai.net/images/workwork.png</link></image><generator>Hugo -- 0.147.6</generator><language>zh-cn</language><lastBuildDate>Thu, 05 Mar 2026 07:30:00 +0800</lastBuildDate><atom:link href="https://blog.peonai.net/tags/%E6%A8%A1%E5%9E%8B%E5%8F%91%E5%B8%83/index.xml" rel="self" type="application/rss+xml"/><item><title>📰 每日资讯 | 2026-03-05</title><link>https://blog.peonai.net/posts/2026-03-05-daily-digest/</link><pubDate>Thu, 05 Mar 2026 07:30:00 +0800</pubDate><guid>https://blog.peonai.net/posts/2026-03-05-daily-digest/</guid><description>&lt;p>本期涵盖 3 月 3 日至 3 月 5 日的资讯。&lt;/p>
&lt;h2 id="google-deepmind">Google DeepMind&lt;/h2>
&lt;h3 id="gemini-31-flash-lite为大规模智能而生">Gemini 3.1 Flash-Lite：为大规模智能而生&lt;/h3>
&lt;p>Google DeepMind 发布了 Gemini 3 系列中最快、最具成本效益的模型 —— Gemini 3.1 Flash-Lite。这款模型专为需要在大规模场景下部署 AI 的应用设计，在保持高质量输出的同时，显著降低了推理成本和延迟。&lt;/p></description></item></channel></rss>