北京時間の4月3日凌晨、グーグルはオープンソースの大規模モデル「Gemma4」を正式に発表しました。パラメータあたりの知能性の革新的な向上により、オープンソースモデルがスマートエージェントワークフローを補助する新しい基準を定めました。
このシリーズには、効率版のE2B(2.3B)、E4B(4.5B)および高性能版の26B MoEと31Bの密集型モデルが含まれます。Gemini3テクノロジースタックに基づく最新の成果として、Gemma4全系列はマルチモーダル入力(画像と動画)をサポートしています。その中でもE2BとE4Bはネイティブに音声入力をサポートし、エッジ側でリアルタイムの音声理解を実現しています。

技術アーキテクチャにおいて、大規模パラメータモデルは最適化により非常に高いハードウェア効率を実現しています。31Bの密集型バージョンはArena AIテキストランキングでオープンソースモデル世界第3位、26BのMoEバージョンは第6位となっています。その論理的推論および関数呼び出し能力は、複雑な自律型エージェントを駆動するのに十分です。
ローカル配備において、Gemma4は最先端のAI能力へのアクセス障壁を著しく低下させています。31Bモデルの非量子化重みは単一の80GB H100GPUで動作可能です。量子化版はコンシューマー向けGPUにも対応しています。モバイル端末やIoTデバイス向けには、E2BおよびE4Bモデルは独自のPLE埋め込み技術と128Kの長文脈サポートにより、Raspberry Piやスマートフォン上で低遅延の論理処理を実現しています。
今回のリリースは、グーグルがオープンソースエコシステムに持つ深い蓄積を示すだけでなく、Apache 2.0ライセンスによるオープンな姿勢を通じて、世界中の開発者にローカル化され、プライバシーが確保されたAIアプリケーション構築の基盤を提供しています。
