DeepMind推出Gemini 3.1 Flash-Lite,赋能海量AI应用

核心变化DeepMind推出Gemini 3.1 Flash-Lite,这是其最快、最具成本效益的AI模型,为开发者提供增强的速度和可调推理能力,适用于大批量AI应用。

DeepMind·AI 与前沿智能·美国产品发布精选信号
官方来源原文blog.google·
收录于 Mar 20, 2026
·
LinkedInX
来源背景

DeepMind近日发布了Gemini 3.1 Flash-Lite,这是其迄今为止速度最快、成本效益最高的AI模型,为开发者提供了处理海量AI应用场景的工具。该模型通过提升速度和引入可调节的“思考层级”,旨在加速可扩展AI驱动产品的开发,并降低解决复杂问题的门槛。

重要性分析

Gemini 3.1 Flash-Lite的发布,为开发者提供了构建可扩展AI应用的强大且低成本的工具。其提升的速度和效率,能够加速内容审核、交互式用户界面等实时服务的开发,而其可调节的推理深度则为复杂问题解决带来了新的灵活性。这有望降低开发复杂AI驱动产品的门槛。

核心要点
1

Gemini 3.1 Flash-Lite是DeepMind迄今为止速度最快、成本效益最高的AI模型。

2

与上一代模型相比,其首次响应时间(time-to-first-token)提升了2.5倍,输出速度提高了45%。

3

该模型包含可调节的“思考层级”,可针对不同任务优化推理能力。

值得关注
1

该模型包含可调节的“思考层级”,可针对不同任务优化推理能力。

2

该模型目前可通过Google AI Studio中的Gemini API进行预览,并面向企业用户在Vertex AI上提供服务。

基于企业官方来源。SigFact 从经验证的企业公告中提取并结构化信号。

登录后可保存信号笔记。

登录