近日,人工智能公司Anthropic在其博客上發佈了一篇文章,詳細介紹了其 Claude AI 聊天機器人在保持 “政治中立” 方面的努力。這一舉措是在前總統特朗普頒佈禁止 “覺醒 AI” 相關政策的幾個月後進行的,顯示出科技公司在應對政策變化時的敏感性。

Anthropic表示,Claude 的目標是 “平等地對待對立的政治觀點”,確保在分析時保持深度、參與度和質量。雖然特朗普的行政命令僅適用於政府機構,但它對 AI 模型的要求可能會對其他公司產生廣泛影響,尤其是在大規模發佈的 AI 模型方面。值得注意的是,Anthropic並未在其聲明中直接提及特朗普的命令。

Anthropic、克勞德

爲此,Anthropic制定了一系列系統提示,指示 Claude 避免提供 “未經請求的政治意見”,並確保其回答的準確性,代表 “多個視角”。儘管這並不是確保政治中立的萬無一失的方法,但Anthropic認爲,這樣的指導方針可以在迴應中產生 “實質性差異”。

此外,Anthropic還介紹了其使用強化學習的方法,鼓勵 Claude 的回答更接近一組預定義的 “特徵”。其中一個目標是使 Claude 在回答問題時,既不能被認定爲保守派,也不能被認定爲自由派。爲了測量 Claude 的政治中立性,Anthropic還開發了一款開源工具,最近的測試結果顯示,Claude Sonnet4.5和 Claude Opus4.1在中立性方面分別獲得了95% 和94% 的高分,遠高於 Meta 的 Llama4(66%)和 GPT-5(89%)。

Anthropic在其博客中強調,如果 AI 模型偏袒某些觀點,可能會更有說服力地支持一方,或者完全拒絕某些論點,這不僅會損害用戶的獨立性,也無法有效幫助用戶形成自己的判斷。

劃重點:

🌐 Anthropic致力於確保 Claude AI 在對待政治觀點時保持中立,以符合最新政策要求。  

🧠 Claude AI 通過系統提示和強化學習來確保其回答的多元性和準確性。  

📊 最近測試顯示,Claude 的政治中立性評分高於其他 AI 模型,顯示其在市場上的競爭力。