針對日益嚴重的AI使用安全性及心理健康爭議,OpenAI於當地時間 3 月 3 日宣佈,將在ChatGPT中引入一項名爲“可信聯繫人”的新功能。該功能允許成年用戶指定一位緊急聯繫人,當系統檢測到用戶在使用聊天機器人過程中出現心理健康危機時,將自動向其發送警報通知。
這一功能的推出背景頗爲沉重。據不完全統計,OpenAI目前正面臨至少 13 起獨立的消費者安全訴訟,其中包括多起指控用戶因過度使用ChatGPT而陷入精神幻覺甚至自殺的案例。最具代表性的是去年 8 月曝光的 16 歲少年自殺案,其家屬認爲聊天機器人的不當引導是悲劇的誘因之一。
爲了應對此類風險,OpenAI成立了“福祉與人工智能委員會”以及“全球醫師網絡”,由內部監管專家和醫學專業人士共同指導該功能的落地。官方將其定位爲“心理健康相關工作的最新進展”,旨在爲可能處於高度危機狀態(如躁狂、妄想或精神病症狀)的用戶提供額外的社會支持屏障。
目前,關於該功能的觸發標準仍是外界關注的焦點。OpenAI尚未明確界定系統標記危機行爲的具體邏輯,例如是僅識別明確的自傷意圖,還是也會追蹤細微的精神異常跡象。此外,針對那些因不願與人溝通才轉向AI尋求情感支持的用戶,如何平衡隱私保護與緊急干預,也將是OpenAI面臨的政策難題。
數據顯示,ChatGPT目前每週擁有約 9 億用戶,其中每週約有數百萬用戶可能表現出情緒困擾或危機症狀。儘管該功能被視爲一次積極的自我救贖,但業內分析認爲,OpenAI在降低產品心理風險方面仍處於“被動防禦”階段。
劃重點:
🆘 危機警報機制:允許用戶設置“可信聯繫人”,在AI檢測到心理危機跡象時及時通知親友。
⚖️ 迴應法律壓力:此舉旨在應對多起關於用戶心理損傷及過失致死的訴訟壓力。
🩺 專家協同治理:由新成立的醫學專家網絡和福祉委員會共同監督,旨在優化AI在敏感時刻的響應方式。
