関係者によると、メタは注目を集める次世代の大規模言語モデル「Llama4」の発表日を少なくとも今年5月まで遅らせることが決定した。ザッカーバーグ氏がこのモデルに多くの期待を寄せていたものの、研究チームは基本モデルのパフォーマンス調整や論理的推論の最適化において技術的な課題に直面し、元々予定されていたリリース計画は延期を余儀なくされた。

メタのコアAI戦略の基盤となるLlama4の開発進捗は、OpenAIやグーグルなどの大手企業との競争でメタが優位を保てるかどうかに直結する。今回の遅延は、トップクラスの大規模モデルが計算効率と複雑な指示の遵守のバランスを取る難しさがますます増していることを示している。内部情報によると、チームはこの追加の時間を活用してより深いセキュリティストレステストを行っており、オープンソースコミュニティにおいてより強力なパフォーマンスを示すことを目指している。

発表ペースが鈍ったとはいえ、メタは依然としてオープンソース戦略を堅持している。Llama4は、モバイルデバイスから企業向けサーバーに至るまで多様な推論ニーズに対応するさまざまなパラメータサイズのバージョンをリリースする予定である。開発者や研究者にとって、2か月間待つ必要があるかもしれないが、より厳格なパフォーマンスの磨き上げにより、より安定した生産性の向上が期待できる。

膨大なトレーニング要件を支えるために、メタは今も高価な計算リソースのクラスターを拡充し続けている。発表スケジュールが延長されたものの、メタはマルチモーダル理解と長文処理能力の開発進捗は全体的に予定通りであると強調している。5月の最終的な登場は、メタが世界のAI競争の第一線に戻れるかどうかを判断する転機となるだろう。