DeepMindは、同社史上最速かつ最もコスト効率の高いAIモデル「Gemini 3.1 Flash-Lite」を発表しました。これは、開発者向けに高ボリュームAIアプリケーションを実現するツールを提供します。このモデルは、処理速度の向上と調整可能な「思考レベル」により、スケーラブルなAI搭載製品の開発を加速し、複雑な問題解決への参入障壁を下げることを目指しています。
Gemini 3.1 Flash-Liteのリリースは、開発者にスケーラブルなAIアプリケーション構築のための強力かつ低コストなツールを提供します。その処理速度と効率の向上は、コンテンツモデレーションやインタラクティブなユーザーインターフェースといったリアルタイムサービスの開発を加速する可能性があり、調整可能な推論深度は複雑な問題解決に新たな柔軟性をもたらします。これにより、高度なAI搭載製品の創出への参入障壁が低下する可能性があります。
Gemini 3.1 Flash-Liteは、DeepMind史上最速かつ最もコスト効率の高いAIモデルである。
初回トークン生成までの時間が2.5倍速くなり、出力速度は前バージョン比で45%向上した。
タスクに応じた推論を最適化するための調整可能な「思考レベル」を搭載している。
タスクに応じた推論を最適化するための調整可能な「思考レベル」を搭載している。
Google AI StudioのGemini APIおよびエンタープライズ向けのVertex AIでプレビュー版が利用可能である。
Sign in to save notes on signals.
ログイン