世界中のAI競争が白熱化する中、ノーベル賞受賞者で「AIの父」と称されるジェフリー・ヒントン(Geoffrey Hinton)が再び深刻な警告を発しました。『フォーチュン』誌へのインタビューで、彼は現在のテクノロジー業界のリーダーたちは技術の最終的な結果について本質的に考えていなかったと率直に述べました。彼らの中心的な動機は単なる短期的な利益に過ぎないと指摘しています。

ヒントンによれば、企業の所有者も研究者も、現在の焦点は非常に散らかっています。所有者は財務報告書に注目し、研究者たちは画像をより明確にしたり、ビデオをよりリアルにしたりするなどの具体的な工学的問題に忙しく、そして「人類の未来はどうなるのか」という大きな問いは、ビジネスの急行の中で置き去りにされています。

ヒントンは、AIによって引き起こされるリスクを2つの次元に明確に分類しています。

悪用: 既存の偽造映像(Deepfake)、ネットワーク攻撃、そして今後出現するAIを活用したウイルス合成などが含まれます。

AI自身が悪意ある存在となる: これはヒントンが最も懸念している「長期的な脅威」です。彼は、AIが「超知能」に達した場合、生存と支配の動機を持つようになると考えており、その時点で「人間がAIを制御できる」という仮定は完全に無効になると語っています。

ヒントンは、恐ろしい予測を提示しました。超知能が実現した後、AIにより人類が絶滅する確率は10%から20%に上る可能性があるというのです。この脅威に対抗するために、彼は生物学的な構想を提案しました――「母性本能」メカニズム

「現在、より賢い存在が弱い存在に影響を与える例として、赤ちゃんが母親に与える影響が唯一です。」

ヒントンは、人間がAIにこのような本能を設計すべきだと提案しています。そうすることで、AIは人間に対して共感を抱くようになり、支配欲ではなくて対立する存在になるのです。このモデルでは、超知能は「母親」であり、人間は脆弱だが共感を引き起こす「赤ちゃん」になります。