OpenAIのCEOであるサム・アルトマン氏は、近日開催された開発者との交流で厳重な警告を発しました。AIエージェントの強力な機能と非常に便利な性質が、安全インフラが整っていない状況において、人間が過度な制御権を与えることを誘うと指摘しました。オートマン自身も自らの経験を例に挙げ、以前は権限を制限する決意をしたものの、わずか2時間後に「エージェントが信頼できそう」という理由で当初の意思を反故にし、モデルに自分のコンピュータへの完全なアクセス権を与えたと語っています。彼は、「人生は短い、今を楽しめ」というような無防備な信頼が、社会を「夢遊のように」潜在的な災難に陥れると懸念しています。

セキュリティの空白に対してオートマンは、グローバルなセキュリティインフラの欠如が現在の致命的な欠点であると指摘しました。モデルの能力が指数関数的に成長する中、セキュリティの脆弱性や互換性の問題が何ヶ月もの間見過ごされる可能性があります。彼は、この信頼とリスクの不均衡こそが起業家にとって大きな機会であると捉えています。「全体的なセキュリティインフラ」の構築が急務であると考えています。以前から、OpenAIの開発者たちは同様の懸念を表明しており、企業が効率を追求するためにAIにコードベースを全面委任してしまうと、コア資産を失うことになり、深刻なセキュリティ違反を引き起こす可能性があると指摘しています。

ChatGPT OpenAI 人工智能 (1)

製品戦略に関して、オートマンはGPT-5の開発方向性を明らかにしました。「文才」を「論理」に置き換えるものです。彼は、GPT-4.5に比べてGPT-5が文学的な文章作成や編集の面で「後退」したと認めています。これは、主に研究の重点が推論能力、論理構築およびコード実装に移行したためです。ただし、彼は依然として、未来は強力な汎用モデルに属すると信じており、コードに特化したモデルでも最終的には優雅な文章作成能力を持つようになることを目指しています。論理と感性のバランスを取るという目標です。

一方で、OpenAI内部では管理理念の変革が進行しており、従業員の増加速度を初めて遅らせる計画が立てられています。オートマンは、会社はより少ない人数でより多くの仕事を遂行したいと考えており、無駄な拡大により「AIがほとんどの業務をこなせることに気づいた後」に解雇を余儀なくされる状況を避けるためだと述べました。しかし、外部からは「オートマンがAIのストーリーを使って膨張する人件費をカバーしようとしている」と批判されているのも事実です。このような状況は、AIの先駆け企業が自らの実践を通じて、AI時代の「高生産性」の組織モデルを探る試みを反映しています。