新たな法律枠組みの下、イギリスのテクノロジー企業と児童保護団体は、人工知能(AI)ツールが児童性虐待画像を生成できるかどうかをテストする権限を得ます。セキュリティ規制機関の報告によると、2025年にはAIによって生成された児童性虐待資料(CSAM)の報告件数は2024年の199件から426件へと倍増しました。今回の法律改正の目的は、これらの画像を生成する前にAI開発者がリスクをチェックし、防止できるようにすることです。

図の出典:AIで生成された画像、画像ライセンス提供者Midjourney
イギリス政府のAIおよびオンライン安全担当大臣であるカニシュカ・ナラヤン氏は、「問題が起こる前に虐待を抑止するため」の取り組みだと述べました。新法律により、特定のAI企業や児童安全団体はチャットボットや画像生成器などのAIモデルを検査することができ、これらの技術が必要なセキュリティ対策を持っていることを確認し、児童性虐待画像の生成を防ぐことができます。
この法律の変更は、犯罪および警察法の修正案として導入され、AIモデルを生成するための意図的なものを持つこと、作成または配布することを禁止しています。ナラヤン長官は児童ホットラインを訪問し、AIに関連する虐待に関するシミュレーション電話を聞き、青少年がAI偽造の性的なメールに苦しんで助けを求めている様子が説明されました。
インターネット監視機関「インターネット観測財団」は、今年のAIによる虐待資料の報告件数が倍増したと指摘しました。特にカテゴリAの最も深刻な虐待資料は、2024年の2,621枚の画像または動画から3,086枚に増えました。同時に、女の子を対象とした画像は全体の94%を占め、新生児から2歳未満の児童を描いたケースは2024年の5件から2025年の92件へと大幅に増加しました。
児童ホットラインはAIに関する相談事例も公表し、AIが青少年生活に与える影響を示しています。例えば、AIを使って体重や外見を評価したり、チャットボットが児童が安全な大人と虐待について話すことを妨げるようなケースもあります。また、今年4月から9月までの間に、児童ホットラインは367件のAIに関する相談を処理し、前年同期の4倍となりました。そのうち半数は、心の健康と福祉に関するものです。
ポイント:
🛡️ 新しい法律では、児童性虐待画像を生成するAIツールの能力を検証することが許可されています。これにより、関連する犯罪を防止します。
📈 2025年にはAIによって生成された児童性虐待資料の報告件数が426件となり、2024年より倍増しました。
👧 女の子が被害者の主要なグループであり、全体の94%を占めています。また、新生児を対象としたケースも顕著に増加しています。
