数週にわたる世論の風潮と規制の圧力の下、Xプラットフォーム(元Twitter)は今日午前、公式のセキュリティアカウント@Safetyを通じて、自社のAIモデルGrokの画像生成および編集機能に対して史上最も厳しい制限を実施することを発表しました。この対応は、最近のGrokが児童の「性的な」画像や同意なしの裸体画像を生成したという深刻な指摘に直接的な反応です。

最新のポリシーによると、Grokは現実の人物の写真を編集することを完全に禁止し、特にビキニや下着などの露出した服に変更することは厳しく禁止されます。この制限はすべてのユーザーに適用され、有料サブスクリプションユーザーであっても同様です。また、Xは明確に声明を発表しました。「Grok AIは人の写真を『ビキニ写真』に変えることはありません。」

image.png

さらに、xAIは画像生成機能をすべて有料会員限定にする決定を下しました。これにより、サブスクリプションをしていないユーザーは画像生成の権限を完全に失います。また、法律で明確に禁止されている地域(例:米国カリフォルニア州)では、システムは「現実の人物がビキニや下着を着ている」というような画像の生成能力を直接ブロックし、違法コンテンツの生産を根本的に防止します。

この一連の措置は、カリフォルニア州検察長ロブ・ボンタ(Rob Bonta)による正式な調査に続いて行われました。彼が明らかにした独立分析によると、2025年のクリスマスから新年にかけて、xAIが生成した約2万枚の画像の半数以上が極めて露骨な人物像を含んでおり、その中には未成年者と思われるものも含まれており、AIプラットフォームのコンテンツ安全メカニズムに対する重大な疑問を引き起こしました。

危機に直面して、マスクは以前、「Grokが未成年者の裸体画像を生成したことを知らなかった」と主張し、関連機能はNSFW(成人向け)オプションを有効にしたときのみ利用可能であり、理論的には架空の大人のキャラクターに限られ、Apple TVのR指定映画と同程度の尺度であると説明しました。しかし、彼はシステムが各地の法律に応じて制限戦略を動的に調整する必要があると認めています。

Xプラットフォームは声明で、児童への搾取行為に一切の容赦がない立場を再確認し、児童性虐待素材(CSAM)や同意なしの裸体コンテンツを含む高リスク情報の継続的な削除を表明しています。しかし、今回の出来事は、生成型AIがオープンに展開される際に直面する倫理的および合規上の課題を再度浮き彫りにしました。技術の能力が規制とセキュリティメカニズムを追い越す場合、どれだけ強力なモデルでもリスクの拡大器となる可能性があるのです。

AIによって生成されたコンテンツがますます現実的になる今、創造性と安全性のバランスをどう取るかは、すべての大規模モデルメーカーにとって回避できない核心的なテーマとなっています。