在震驚加拿大的 Tumbler Ridge 槍擊案發生後,OpenAI 迅速採取了一系列補償性措施。然而,法律與技術專家對此並不買賬。學者 Jean-Christophe Bélisle-Pipon 指出,OpenAI 首席執行官 Sam Altman 向加拿大政府做出的安全承諾,本質上是在用企業監控替代民主監管

18歲的槍手傑西·範·魯特塞拉爾在作案前數月,其 ChatGPT 賬號就因發佈涉及槍支暴力的內容被系統標記。雖然賬號被封禁,但 OpenAI 並未將此威脅上報執法部門。最終,這場悲劇導致8人死亡。

OpenAI 的新對策:建立“警企直連”管道

作爲迴應,OpenAI 承諾將採取以下行動:

  • 直接上報: 發現威脅後立即向加拿大皇家騎警(RCMP)報告。

  • 追溯審查: 對此前標記過的可疑賬戶進行重新評估。

  • 專家入駐: 允許加拿大專家進入其安全辦公室,並協助政府制定監管建議。

專家的擔憂:“監控替代”陷阱

Bélisle-Pipon 教授在文章中提出了一個尖銳的觀點:OpenAI 正在規避對模型設計和訓練方式的審查,轉而強化對用戶言論的監控。

  1. 問責機制真空: 上報的標準依然由 OpenAI 私下制定,缺乏透明度和外部審計。

  2. 寒蟬效應: 研究表明,用戶願意向聊天機器人吐露心聲是因爲其私密性。如果對話變成直通警方的監控頻道,那些真正處於心理危機、急需幫助的弱勢用戶可能會選擇閉嘴,從而錯失干預機會。

  3. 監管俘獲: 這種“自願讓步”可能是在預判並削弱更嚴厲的法定監管。

治理的真正方向:從用戶轉向系統

批評者認爲,真正的 AI 監管不應只是監控誰在說話,而應審視系統本身。例如:

  • 獨立分流機構: 由心理健康和法律專家組成的第三方機構來評估風險,而非由企業自行裁決。

  • 模型級問責: 審查模型如何響應暴力傾向的披露,以及在開發階段進行了哪些壓力測試。

隨着 OpenAI 在全球範圍內積極謀求與政府合作,Tumbler Ridge 事件正成爲一個風向標:我們得到的究竟是更安全的技術,還是一個由私有公司運營的、無孔不入的數字監視網?