AIの使用における安全性やメンタルヘルスに関する議論がますます深刻化する中、OpenAIは現地時間3月3日に、ChatGPTに「信頼できる連絡先」という新しい機能を導入することを発表しました。この機能により、成人ユーザーは緊急連絡先を指定でき、システムがユーザーがチャットボットを使用中にメンタルヘルスの危機状態にあると検知した場合、自動的にその人にアラート通知を送信します。
この機能の導入背景には重い事情があります。OpenAIは現在、少なくとも13件の独立した消費者安全訴訟に直面しており、そのうちいくつかは、ユーザーがChatGPTを過度に使用し、精神的な幻覚や自殺に至ったケースです。特に代表的なのは、昨年8月に暴露された16歳の少年の自殺事件で、家族はその原因としてチャットボットの不適切な誘導を指摘しています。
こうしたリスクに対応するために、OpenAIは「福祉と人工知能委員会」と「グローバル医師ネットワーク」を設立し、内部の監督専門家と医療専門家が共同でこの機能の実施を指導しています。公式には、「メンタルヘルス関連の最新の進展」として位置付けられており、うつ病、妄想、精神病の症状などの高度な危機状態にあるユーザーに対して追加の社会的サポートのバリアを提供することを目的としています。
現在、この機能の起動基準は外からの注目を集めています。OpenAIはまだ、システムが危機行動をマークする具体的なロジックを明確に定義していません。例えば、単に明白な自傷意図のみを識別するのか、それとも些細な精神的な異常の兆候も追跡するのかが不明です。また、人と話すことを避けたためにAIに感情的なサポートを求めているユーザーにとって、プライバシー保護と緊急介入のバランスをどう取るかという点も、OpenAIが直面する政策的な課題となるでしょう。
データによると、ChatGPTは現在、週間で約9億人のユーザーを抱えており、そのうち数百万人が週にわたって感情的な悩みや危機的症状を示している可能性があります。この機能は一歩前進であると見なされていますが、業界の分析では、OpenAIは製品の心理的リスクを低減する点においてまだ「受動的な防御」段階にとどまっているとされています。
ポイントを整理:
🆘 危機アラートメカニズム:ユーザーが「信頼できる連絡先」を設定し、AIがメンタルヘルスの危機の兆候を検知した際に、親戚や友人に即時に通知できます。
⚖️ 法的圧力への対応:これは、ユーザーのメンタルヘルスへの損害や過失による死亡に関する複数の訴訟に対する対応策です。
🩺 専門家による協働ガバナンス:新設された医療専門家ネットワークと福祉委員会によって共同で監督され、AIが敏感な瞬間にどのように反応するかを最適化することを目的としています。
