世界中のAI競争が、GPT-5やGeminiなどの自己回帰型大規模モデルを中心に激しく展開されている中、新たなスタートアップ企業が画期的なアーキテクチャで急成長を遂げています。スタンフォード大学のStefano Ermon教授が率いるAI企業Inceptionは、5000万ドルのシードラウンドファイナンスを完了し、Menlo Venturesがリード投資を行い、マイクロソフトのM12、NVIDIAのNVentures、Snowflake Ventures、Databricks Investment、Mayfieldが追加出資し、アンドリュー・ニー(Andrew Ng)とAndrej Karpathyも天使投資家として参加しており、豪華な投資家リストを構築しています。
Inceptionの核心的な戦略は、画像生成に使われてきた拡散モデル(Diffusion Models)をテキストおよびコード分野に全面的に導入することです。これは現在主流の自己回帰型アプローチに挑戦するものです。Ermon氏は、GPTやGeminiなどのモデルが「単語ごとに予測」を行う方式を採用しており、並列処理ができず、速度と効率に制限があることを指摘しました。一方で、拡散モデルは全体の出力を並列的に最適化することで、大規模なコードベースや長文処理において顕著な利点を発揮します。
このコンセプトは製品化され、同社は最新モデルであるMercuryを発表しました。Mercuryはソフトウェア開発のシナリオに特化しており、ProxyAI、Buildglare、Kilo Codeなど複数の開発者ツールに統合されています。実験結果によると、Mercuryはコード補完、リファクタリング、ファイル間の理解などのタスクにおいて、推論速度が1秒あたり1000トークンを超えており、既存の自己回帰モデルよりも大幅に高速です。「我々のアーキテクチャは元々並列処理のために設計されており、より速く、効率的であり、計算コストにも優しい」とErmon氏は強調しています。
なぜ拡散モデルがコードに向いているのか?
コードは自然言語とは異なり、構造が厳密で、全体の文脈に依存し、頻繁にファイル間の関係性を必要とします。自己回帰モデルでは、このようなタスクに対して「一文字ずつ生成」することで、全体の論理的一貫性を損ねる可能性があります。一方、拡散モデルはノイズから始まり、複数のステップで全体の出力を調整して目標の出力に近づけるため、構造が複雑なデータに適しています。また、GPUやTPUクラスターを活用できる並列計算特性により、遅延やエネルギー消費を大幅に削減でき、現在のAIインフラの高コストという課題を直接的に解決します。
巨大企業が注目する理由
AIトレーニングと推論のコストが急騰している中、効率が新たな競争の焦点となっています。マイクロソフト、NVIDIA、Databricksなどの投資家はすべてAI開発スタックの構築を目指しており、高性能で低コストのモデル基盤が必要です。Inceptionのアプローチは、大規模モデルの商業化に向けた「計算コストを抑えつつ高いスループットを持つ」新しい道を示すかもしれません。
