最近、米国防省と人工知能スタートアップのAnthropic PBCとの間で緊張が高まっている。関係者によると、五角庁はAnthropicに警告を出し、同社が技術使用に関する関連条項を遵守しない場合、金曜日に既存の軍事契約を終了する予定である。この決定は最大2億ドル規模の軍事プロジェクトに影響を与える可能性があり、双方の紛争をさらに悪化させる恐れがある。

火曜日の会議で、AnthropicのCEOダリオ・アモデイ氏は国防長官と会談した。会議では米国当局者が明確に述べたのは、Anthropicが軍隊がその人工知能技術を制限なしに使用することを許可しない場合、同社をサプライチェーンリスクとして分類し、『国防生産法』に基づいて同社のソフトウェアの使用を強制する可能性があるという内容だった。この脅威は、国防省が軍事的応用においてAI技術に対して強い必要性を持っていることを示している。

アモデイ氏は国防省の要求に強い反対を表明した。彼は、軍隊が自社製品を使って敵の作戦人員を自動的に特定したり、米国市民を大規模に監視したりすることはできないと強調し、現実的な運用ではこのような状況は発生していないと指摘した。彼の立場は、AI技術が軍事的応用において倫理的および法的な境界を示しており、テクノロジーの進歩がもたらす社会的影響について注目すべきであることを思い出させてくれる。

会議後、Anthropicは政府との継続的な対話を行っており、国家安全保障任務を支援する意図を持っているが、軍事的用途の制限を緩和する予定はないことを再確認した。この出来事は単なる企業と軍部の契約問題だけでなく、より広範なAI倫理と応用問題にも関係している。AI技術が進歩するにつれて、これらの技術を安全かつ適切に使用する方法についての議論もますます重要になるだろう。

この出来事の今後の展開は注目に値する。Anthropicが国防省と合意に達し、軍事プロジェクトを継続できるかどうかは、AI業界の将来に直接的な影響を与える。