谷歌(Google)正式发布了其 Gemini3系列中的最新成员——Gemini3.1Flash-Lite。作为该系列中速度最快且最具成本效益的轻量级模型,它的问世标志着谷歌在“高性价比AI”赛道上再次发力,试图为开发者提供更极致的实时交互体验。

image.png

在性能表现上,Gemini3.1Flash-Lite 展现了令人惊叹的进化。根据权威评测平台的数据显示,与前代2.5Flash 相比,新模型的首字响应速度(TTFT)实现了2.5倍的爆发式增长,整体输出速度也同步提升了45%。这种极低的延迟特性,使其能够完美胜任需要即时反馈的对话机器人及实时处理场景。

image.png

除了“快”,这款模型还具备极高的“质价比”。谷歌为其制定了极具竞争力的定价方案:每百万输入 Token 仅收0.25美元。在多项核心能力测试中,3.1Flash-Lite 甚至展现出了越级挑战的实力,在多模态理解与逻辑推理指标上全面领先同级别竞品,部分数据甚至超越了体积更大的前代模型。

image.png

此外,谷歌还在 AI Studio 和 Vertex AI 中为该模型标配了创新的“思考层级”功能。开发者可以根据业务需求灵活调节模型的“思考深度”:对于简单的翻译或内容审核,可追求极致效率;而面对复杂逻辑模拟或数据看板生成,则可激发更深层次的推理潜力。目前,该模型已通过 API 向预览版用户及企业级平台同步开放,为全球开发者构建低延迟 AI 应用提供了新利器。

划重点:

  • 响应速度跨越式提升:首字响应提速2.5倍,整体速度提升45%,主打实时交互场景。

  • 💰 极致成本控制:输入价格低至0.25美元/百万 Token,极大降低了大规模部署 AI 的门槛。

  • 🧠 思考深度可控:新增“思考层级”调节功能,支持在效率与深度推理之间自由切换。