OpenAIは米国のAIチップのスター企業であるCerebrasと共同で、合計750メガワットのCerebrasウェーハレベルシステムを導入し、世界最大規模の高速AI推論プラットフォームを構築することを発表しました。この協力は2026年から段階的に実施され、2028年までに全面的に運用を開始する予定で、取引価値は100億ドル以上(約697億元)に上ります。これは大規模モデルメーカーが従来のGPUアーキテクチャへの依存を急速に脱却しようとしていることを示しています。

Cerebrasのチップは「巨大な」ことで知られています。1枚のチップには4兆個のトランジスタが集積されており、数百個の通常のGPUに相当するサイズです。その中心的な優位性は、計算、メモリ、帯域幅をすべて単一のウェーハレベルのシリコンシートに統合している点であり、マルチチップ接続による遅延やエネルギー消費のボトルネックを完全に回避しています。OpenAIの試算によると、大規模モデルを実行する際、Cerebrasシステムの応答速度はGPUソリューションの15倍にもなります。AIアプリケーションにおいてミリ秒単位のインタラクションを重視する場合、これは性能向上だけでなく、体験の質的な変化でもあります。

注目すべきは、OpenAICEOのサム・アルトマン氏がCerebrasの初期個人投資家であることです。双方の関係は2017年にまでさかのぼり、当時OpenAIが設立して間もなく、同年に設立されたこのチップ会社との協力を検討していたというものです。法的文書によると、OpenAIは英伟達より効率的でコストパフォーマンスの良い代替案を求め続けてきました。昨年、同社はブロードコムとカスタムチップを開発し、AMDの最新のMI450アクセラレータを購入した後、さらにCerebrasに投資し、これにより多様な計算基盤を構築する戦略的决心を示しています。

CerebrasCEOのアンドリュー・フェルドマン氏は、両社は2023年の秋に正式な交渉を開始し、感謝祭前には協力の意思を決定したと語っています。この決定を促したのは、市場における「極限の高速計算」への膨大な需要でした。OpenAIインフラ担当責任者のサチン・カティ氏は、「計算能力が私たちの収益可能性を直接決定します。過去2年間で、計算能力は毎年倍増し、収益も同時に上昇しています」と述べました。また、エンジニアからのフィードバックによると、現在のハードウェアでは高負荷タスクであるプログラミング補助などの処理にまだ苦労しているため、Cerebrasの導入を加速させています。

資金面では、Cerebrasも急激な評価上昇を遂げています。ウォールストリートジャーナルの報道によると、同社は220億ドルの評価で10億ドルの資金調達を検討しており、以前の評価81億ドルと比べてほぼ3倍に増えています。2024年にIPO申請を行った後、撤回した経緯もありますが、今やOpenAI、Meta、IBM、アブダビのG42など重要な顧客を持つことになり、商業化の道が明確になりました。これまでにCerebrasは18億ドルを調達しており、今回の新資金は含まれていません。

この協力は、両社の運命だけでなく、AIインフラストラクチャの深層的な変化を反映しています。大規模モデルが大規模商用化の段階に入ると、推論効率がユーザー体験とビジネス収益化の主要な杠杆となっています。NVIDIAは依然としてエコシステムを主導していますが、ウェーハレベルの統合やカスタムASICなどの異種アプローチがトッププレイヤーによって集中して注目されています。今後のAI競争は、モデルパラメータの比較ではなく、ユーザーが口に出した瞬間に答えを出すことができるかどうかにかかっているかもしれません。