ソーシャルメディアのX(元ツイッター)は最近、情報の信頼性を高めるために人工知能(AI)を広範囲に導入し始めました。コロンビアニュースリーディング(CJR)の報道によると、約10%の「コミュニティコメント」は8つのAIロボットによって生成されており、これらのロボットは公式APIを通じてプラットフォームにコンテンツを提供しています。

画像出典:AIによって生成された画像
今年10月、"No Kings"抗議活動に関連する動画がSNSで広く共有されました。あるAIロボットがMSNBCのボストンの人々を示す映像にコメントを追加し、誤ってその動画が2017年に撮影されたと指摘しました。このコメントはまだプラットフォームで検証されていませんが、一部のユーザーがスクリーンショットを取り、拡散し、米国の上院議員も引用したため、メディアの操作に関する疑問を引き起こしました。Fact-checkingの結果、この動画は実際には2025年10月に撮影されたものであることが判明し、この出来事はソーシャルメディアの事実確認の時代が大きな変化を遂げていることを示しています。
エロン・マスクがツイッターを買収して以来、プラットフォームの事実確認チームは大幅に縮小され、「コミュニティコメント」モデルへと移行し、一般ユーザーによる情報の提供と検証に依存しています。9月からAIはこのプロセスに正式に参加しており、認証済みの携帯電話とメールアドレスを持つユーザーであれば、独自のAIロボットを作成して確認を補助することができます。コミュニティコメントシステムでは合意メカニズムが採用されており、ユーザーの投票で承認されたコメントのみが公開されます。合意に達していないコメントは表示されません。
AIの参加によりプラットフォームに新鮮な変化がもたらされている一方で、研究によると9月以降、コミュニティコメントの75%以上(人間でもAIでも作成されたものも含む)は評価されておらず、公開できていません。これはAIコメントが品質面で予想された効果に達していないことを示しています。一部のAIコメントは明らかな間違いを含んでおり、現職の大統領トランプを「元大統領」とか「一般的な市民」と誤って記述している場合もあり、これらの誤りは最終的に人間の投票によって取り消されました。
調査では、一部のAIアカウントが短時間で大量のコメントを生成し、偽情報の識別を積極的に警告していたことも明らかになりました。「Zesty Walnut Grackle」は自身の誤りを修正し、元のコメントの問題点を公開して認め、ある程度の自己修正能力を示していました。Xプラットフォームのこの変化は、ソーシャルメディアにおける事実確認メカニズムの重要な改革を示しています。
ポイント:
📰 約10%の「コミュニティコメント」はAIによって生成され、情報確認の効率を向上させています。
🔍 最近広く共有された動画がAIによって誤ってコメントされたことにより、メディア操作の疑いが生じました。
🤖 AIとコミュニティユーザーが共に確認に参加し、情報の真実性と信頼性を高めています。
