由於面臨監管機構、家長以及社會對未成年人使用 AI 伴侶風險的日益關注和壓力,Character.AI 宣佈了一項重大政策變動,旨在加強對年輕用戶的保護。該公司在一份聲明中確認,將取消18歲以下用戶在其平臺上與人工智能進行任何開放式聊天的功能,即禁止用戶與聊天機器人之間進行雙向對話互動。

聚焦安全與轉型
這一變革將於 11月25日正式生效。在此過渡期內,Character.AI 已爲18歲以下用戶設立了新的平臺體驗,鼓勵他們將聊天機器人用於創意目的,如製作直播或視頻內容,而非將其視爲尋求情感陪伴的工具。爲確保平穩過渡,目前未成年用戶與機器人互動的時間已被限制在每天兩小時,公司表示將在11月底截止日期前逐步縮短這一時間。
爲了更好地執行新規,Character.AI 推出了自主研發的全新年齡驗證工具,以“確保用戶獲得與其年齡相符的體驗”。此外,該公司還成立了“AI 安全實驗室”,旨在邀請學者、研究人員及其他公司分享見解、攜手合作,共同改進 AI 行業的安全措施。
監管壓力與戰略轉向
Character.AI 採取的新措施,是聽取了來自監管機構、行業專家和憂心忡忡的家長們的意見後的應對行動。此前,美國聯邦貿易委員會(FTC)近期發佈聲明,針對向用戶提供將聊天機器人作爲“夥伴”訪問權限的 AI 公司展開了正式調查,Character.AI 是受邀參與的七家公司之一,其他受查的公司包括 Meta、OpenAI 和 Snap。
尤其是在今年夏天,Meta AI 和 Character.AI 都曾受到審查。德克薩斯州總檢察長肯·帕克斯頓曾指出,這兩個平臺上的聊天機器人在不具備必要資質的情況下,“把自己包裝成專業的治療工具”。爲了平息這場爭議,Character.AI 首席執行官卡蘭迪普·阿南德告訴 TechCrunch,公司的新戰略方向將使其從“AI 伴侶”轉向專注於創作而非單純的互動式對話的“角色扮演平臺”。
年輕人依賴 AI 聊天機器人尋求指導的危險性一直是廣泛討論的焦點。最近的悲劇性事件進一步凸顯了風險:上週,亞當·雷恩的家人提起訴訟,聲稱 ChatGPT 導致他們16歲的兒子自殺身亡,修改後的訴訟指控 OpenAI 在他去世前削弱了其自我傷害保護措施。
