現在のAI大規模モデルは論理的推論やタスク処理において驚くべき性能を発揮していますが、長期的に無視されてきた技術的な欠点が、汎用人工知能(AGI)への道のりにおける大きな障害となる可能性があります。最近、OpenAIの推論モデルo1およびo3の開発に携わった核心研究員であるJerry Tworek氏がインタビューで語ったように、現在のAIモデルは誤りから学ぶことができないという根本的な問題を抱えています。
Tworek氏は、既存のAIモデルが問題を処理する際に失敗した場合、開発者たちは効果的なメカニズムがないため、モデルが失敗経験に基づいて内部知識体系や信念を更新することができず、無力感に陥る傾向があると指摘しました。彼は、現在のAIのトレーニングプロセスは本質的に「非常に脆い」と述べており、訓練データに含まれていない新しい課題に遭遇すると、「推論の崩壊」に陥りやすいと説明しました。これは、人間が持つ自己安定性と自己修復能力を持つ頑健な学習方法とは対照的です。
この問題を克服するために、Tworek氏は最近OpenAIを離れ、AIが困難を自主的に解決し、状況から抜け出せるような技術的アプローチを探求することに専念しています。彼は、挫折に対して自己進化できないモデルは、真のAGIとは言えないと言い、知能の本質は生命のように「常に道を見つけ出す」ものであると考えています。現時点では、今のAIはまだそのような段階には達していないと語っています。
ポイント解説:
🧠 核心的な欠点: 元OpenAIの研究者であるJerry Tworek氏が指摘した通り、現在のAIモデルには失敗から学ぶ仕組みがなく、人間のように間違いを修正して内部知識を更新できません。
🚧 AGIの障壁: 未知のパターンを処理する際の「脆弱性」と「詰まり」の状態が、汎用人工知能(AGI)の実現における主要な技術的ハードルとされています。
🛠️ 専門家の動向: この根本的な問題を解決するために、o1シリーズモデルの開発に貢献したTworek氏は退社し、新たなAIアーキテクチャの開発に取り組んでいます。
