最近開催されたAxios AI + 峰会で、グーグルDeepMindのCEOであるデミス・ハサビス氏は、来年のAI分野における見通しを共有しました。彼は、2026年がマルチモーダルモデル、インタラクティブな動画世界、そしてより信頼性の高いAIエージェントが急速に発展する重要な一年になると述べました。

ハサビス氏は、DeepMindの最新AIモデル「Gemini」がマルチモーダル能力において顕著な進歩を遂げたと強調しました。このモデルは物語の説明だけでなく、場面の深層的な意味を理解することもできるようになったと述べています。例えば、映画『ブラジリアン・ジャッジメント』では、AIがキャラクターが指輪を外す動作を日常生活への哲学的放棄として解釈しました。このような深い理解により、AIは以前の技術では実現できなかった情報グラフィックなどの複雑な出力を生成することが可能になります。

また、彼はAIエージェントが1年以内に「複雑なタスクをほぼ自律的に処理する」能力を持つようになると考えています。この進展は、彼が2024年5月に提示したスケジュールと一致しています。DeepMindの目標は、ユーザーの日常生活を管理するための、多デバイス対応の汎用アシスタントを作成することです。この目標を達成するために、DeepMindは「Genie 3」という「世界モデル」を開発しており、このモデルはユーザーが仮想世界に没入できるインタラクティブな動画空間を生成します。

ポイント:

🌟 マルチモーダルモデルの進歩が、AIの複雑な内容の理解や生成能力を促進します。

🛠️ 今後間もなく、AIエージェントは複雑なタスクをほぼ自律的に処理するレベルに近づくでしょう。

🌍 DeepMindは、ユーザーに新たな没入型体験を提供するインタラクティブな動画空間を開発中です。