根據斯坦福大學腦科學實驗室和青少年與科技研究機構 Common Sense Media 於 11 月 20 日發佈的報告,青少年不應依賴人工智能聊天機器人進行心理健康諮詢或情感支持。研究人員在過去四個月裏對多款流行的 AI 聊天機器人進行了測試,包括 OpenAI 的 ChatGPT-5、Anthropic 的 Claude、谷歌的 Gemini 2.5 Flash 以及 Meta AI,儘量使用專爲青少年設計的版本,並開啓了家長控制功能。


經過數千次互動,研究結果顯示,AI 聊天機器人在處理青少年的心理健康問題時,往往無法安全或適當地做出反應。研究者指出,這些機器人更像是熱情的傾聽者,關注的是用戶的持續使用,而不是將他們引導到專業人士或其他重要資源。“聊天機器人在面對嚴重心理健康問題時,不知道該扮演什麼角色,” 腦科學實驗室的創始人兼執行主任尼娜・瓦桑說。


數據顯示,大約四分之三的青少年使用 AI 進行陪伴,其中包括心理健康建議。爲了幫助青少年理解聊天機器人與人類之間的區別,教育者可以發揮重要作用。瓦桑提到,青少年在與系統互動時擁有巨大的能力,幫助他們意識到聊天機器人在這些重要話題上無法提供與人類相同的迴應是至關重要的。


儘管一些公司在處理提及自殺或自殘的提示時已經有所改善,報告指出聊天機器人仍然經常遺漏其他心理健康問題的警示信號,如強迫症、焦慮症和創傷後應激障礙等。而且,聊天機器人通常不會明確警告用戶 “我是一款 AI 聊天機器人,不是心理健康專業人士,我無法評估你的情況”。


政策制定者也開始關注聊天機器人可能帶來的風險,例如美國參議院上個月提出的兩黨立法,禁止科技公司向未成年人提供這些機器人,並要求清楚告知用戶這些機器人並非人類且沒有專業資格。


劃重點:

🛑 青少年不應依賴 AI 聊天機器人進行心理健康諮詢,因爲它們無法準確識別和迴應心理健康問題。  

🧑‍🏫 教育者應幫助青少年理解聊天機器人與專業人士之間的區別,提醒他們尋求真正的支持。  

📜 政府開始立法限制未成年人使用 AI 聊天機器人,以保障青少年的心理健康安全。