世界中のオープンソース大規模モデル市場は長期間、中国のテクノロジー企業によって主導されてきたが、米国のテクノロジー大手は差別化競争を通じて言語権を取り戻そうとしている。
メディア報道によると、グーグルDeepMindのCEOであるデミス・ハサビス氏は近日、ソーシャルメディアで「四つのダイヤモンド」のアイコンを使って、新世代のオープンソース大規模モデル
仕様の大幅アップグレード:120Bモデルがローカル実行の限界に挑戦
前世代と比較して、
4倍のパラメータ量: このバージョンでは、新たに120Bのパラメータを持つ大型モデルが追加され、これは前世代の4倍の規模となる。
MoEアーキテクチャ: 性能と効率の両方を考慮して、このモデルはMoE(混合エキスパート)アーキテクチャを採用する予定であり、アクティブなパラメータはわずか15Bとなる。これにより、大規模なパラメータモデルでも一般ユーザー向けのグラフィックカードでローカルでオフラインで動作できる可能性がある。
能力の進化: 予測によると、
Gemma 4 の文脈処理能力は1〜2倍向上し、より深い論理的推論や複雑なタスクの実行能力を備えることになる。
戦略的対立:オープンソースコミュニティで「中国勢力」を封じ込めようとする
タイムギャップ戦略: グーグルは主力の閉鎖型モデルGemini 3.0シリーズの公開から半年以上経過した後、オープンソース版をリリースすることを選択した。これにより、閉鎖型モデルの商業的収益を維持しながら、開発者コミュニティでの影響力を保持できる。
ローカル化の護り堀:
Gemma 4 の核心的な位置づけは「ローカル化サービス」である。軽量モデルの性能を最適化することで、グーグルは核心的な商業利益に触れることなく、究極的なエッジ側体験を通じて国内オープンソースモデルと直接対等に競う構えだ。
業界観察:オープンソースセクターは「パラメータと効率」の二重勝負時代に入った
