在內容監管與技術迭代的十字路口,Meta 邁出了激進的一步。本週,Meta 正式宣佈了一項具有里程碑意義的計劃:在未來幾年內,公司將利用自研的 AI 審覈系統全面取代目前依賴的第三方外包人類審覈員。這意味着,長期以來支撐 Facebook 和 Instagram 內容安全的“人力長城”將逐漸瓦解。

Meta 表示,隨着 AI 技術(尤其是生成式 AI 助手)的廣泛部署,大模型已經具備了處理高重複性、高壓力任務的能力。這一轉變不僅是爲了追求更高的技術效率,更是對長期以來困擾該行業的勞工倫理問題的迴應。

終結“數字創傷”:AI 接手高危內容

多年來,大型科技公司的內容審覈員一直面臨着巨大的心理壓力。由於需要長時間審查暴力、血腥或極端主義內容,許多外包員工患上了嚴重的創傷後應激障礙(PTSD),並因此引發了多起針對 Meta 的集體訴訟。

Meta 在公告中明確指出,AI 系統更適合處理那些“令人不安且具有重複性”的內容審覈。此外,在應對毒品交易、網絡詐騙等手段多變的“對抗性領域”時,AI 的實時學習與迭代能力也被認爲優於傳統的人工審覈。

雖然 Meta 強調仍會保留部分人工審覈崗位以處理複雜的決策,但減少對第三方供應商依賴的信號已經非常明確。這引發了外界對於大規模失業以及 AI 審覈公正性的擔憂。畢竟,就在該聲明發布的同時,Meta 內部還曝出了一起因“流氓 AI”誤操作導致的嚴重安全事故。

隨着 Meta 決定將社區準則的解釋權逐步移交給算法,社交媒體的治理模式正在進入一個由代碼主導的新紀元。這不僅是 Meta 的成本優化方案,更是全球內容安全行業的一場生存實驗。