最近、メディア分析会社のNewsguardが発表した調査により、現在の人工知能分野における不快な現実が明らかになりました。AI動画生成技術は日々進化しているにもかかわらず、主流のAIチャットボットはこれらの「ディープフェイク」コンテンツをほぼ認識できないことが判明しました。開発者自身のツールさえも例外ではありません。

調査によると、OpenAIの動画生成モデルSoraによって作成された偽動画に対して、OpenAIのChatGPTの識別ミス率は驚くほど92.5%に達しました。これは、Soraで生成されたほとんどの動画が、ChatGPTによって真実の記録と誤って認識されることを意味します。他の大手企業も同様に悪い結果を示し、xAIのGrokはミス率が95%に達するほどです。比較的良い結果を示したのはGoogleのGeminiですが、それでもミス率は78%にとどまっています。

さらに心配なことに、現在の技術的な対策はほとんど意味を持たなくなっています。Soraは生成された動画に可視のウォーターマークと不可視のメタデータを追加していますが、研究によるとこれらのマークは無料のツールや単純な「名前を付けて保存」操作によって簡単に削除されてしまいます。ウォーターマークが消えれば、チャットボットは偽造を認識できず、場合によっては「本気で間違ったことを言って」、架空のニュースソースを引用して偽動画の正当性を証明しようとすることがあります。

この問題について、OpenAIはChatGPTが現在のところAIで生成されたコンテンツを判断する能力を持っていないことを認めています。トップクラスのAI動画ツールは人間の目でも区別がつかない素材を作り出せるようになった一方、対策は技術の進歩に遅れを取っているため、これは偽情報の拡散に対する大きなリスクとなっています。