OpenAI は最近、AIチップのスタートアップ企業であるCerebrasと戦略的な長期契約を結び、多様なハードウェア構成によって計算コストを著しく削減し、NVIDIAチップへの依存度を減らすことを目的としています。関係者によると、OpenAIは今後3年間でCerebrasに200億ドルを超える支払いを約束し、そのチップで動作するサーバークラスターを使用するためのものです。この金額は以前の市場の噂を上回り、OpenAIが計算能力の自主化に取る決意の大きさを示しています。

OpenAI、人工知能、AI

契約の核心となる内容として、OpenAIはCerebrasの少数株式購入権を獲得することになっており、投資額が増えるにつれて保有株式比率もさらに増える見込みです。また、OpenAIは約10億ドルを注資し、Cerebrasが自社のAI製品を実行するために必要な高性能データセンター建設を専門的に支援することになりました。Cerebrasは独自のワフェルレベルエンジン(WSE)技術で知られており、従来のGPUよりもはるかに高速なメモリアクセス速度を提供します。これは、OpenAIが次世代の推論モデル(例えばOpus4.7)の応答遅延を最適化する上で非常に重要です。

この動きは、AIインフラストラクチャ分野における転換点と見なされています。単一のサプライヤーからCerebras、AMDおよび自社開発チップを含む混合アーキテクチャへと移行することで、OpenAIは現在のAI計算能力市場の独占構造を打ち破ろうとしています。ただし、OpenAIは新興チップアーキテクチャが大規模で複雑な顧客関係を扱う際の安定性を証明する必要があるものの、200億ドルの深く密接な連携は、SaaSおよび下部の計算能力構造に関する既存の認識に大きな影響を与えることになります。