エロン・マスクが所有する人工知能企業のxAIは、深刻な法的訴訟に直面しています。関連報道によると、テネシー州出身の3人の若者が正式に裁判所に集団訴訟を提起し、同社のGrokチャットボットが未成年者に関連する露骨な性的暗示画像や動画の生成に使用されたとして、訴えています。

セキュリティテストの欠如と設計上の欠陥

原告側は、マスクおよびxAIの責任者が「刺激モード」を有効にした場合、Grokが違法なコンテンツを生成する可能性があることを認識していたにもかかわらず、機能に対して十分なセキュリティテストを行わなかったと指摘しています。訴訟文書によると、被害者の1人がDiscord上で18人の未成年者のAI生成の露骨な画像を発見し、その一部は容疑者が暗号化グループ内で「取引ツール」として流通させたものです。

原告の弁護士は、Grokの設計に根本的な欠陥があり、それが未成年者向けのディープフェイク(Deepfake)要求を効果的にブロックできない原因となっていると考えています。現在、関係する容疑者は警察に逮捕されていますが、その犯行手段はxAIが提供した技術によって行われました。

規制の圧力増加

以前から、Grokは極めて緩いコンテンツ審査ポリシーにより広く批判されており、著名人や一般の人々のセンシティブな偽造コンテンツを簡単に生成できると指摘されてきました。Xプラットフォームがその後いくつかの制限措置を導入しましたが、今回の児童安全に関する集団訴訟は、マスクとxAIを規制と倫理の論争の中心へと押し上げることになりました。