雖然像 ChatGPT、Claude 和 Gemini 這樣的大型語言模型令人印象深刻,但它們都有一個共同的大問題:經常會產生幻覺。這是人工智能領域的一個嚴重問題,甚至蘋果也對未來蘋果智能(Apple Intelligence)如何處理幻覺表示擔憂。幸運的是,一組研究人員現在開發出了一種 AI 幻覺檢測器,可以判斷 AI 是否虛構內容。

圖源備註:圖片由AI生成,圖片授權服務商Midjourney
這些幻覺導致了許多令人尷尬和耐人尋味的失誤,它們也是 ChatGPT 等人工智能尚未更加實用的主要原因之一。我們曾經看到谷歌不得不修改其 AI 搜索概覽,因爲 AI 開始告訴人們吃石頭是安全的,還說在披薩上塗膠水是安全的。甚至有律師使用 ChatGPT 幫助撰寫法庭文件,結果因爲聊天機器人虛構了文件中的引用而被罰款。
根據該論文,研究人員開發的新算法能夠幫助辨別 AI 生成的答案在大約79% 的時間內是否準確。當然,這並不是一個完美的記錄,但比目前其他主流方法高出了10%。
Gemini 和 ChatGPT 等聊天機器人可以很有用,但它們也很容易產生虛構的答案。這項研究是牛津大學計算機科學系的成員進行的。研究人員在論文中解釋說,他們使用的方法相對簡單。
首先,他們讓聊天機器人對同一個提示進行多次回答,通常是五到十次。然後,他們計算出一個我們稱之爲語義熵的數值,這是答案的意義相似性或差異性的度量。如果模型對每個提示條目的回答都不同,那麼語義熵分數會更高,表明 AI 可能是在虛構答案。然而,如果答案都相同或意義相似,語義熵分數就會較低,表明它提供的答案更一致且可能是真實的。這並不是一個百分之百準確的 AI 幻覺檢測器,卻是一個有趣的處理方法。
其他方法依賴於所謂的樸素熵,通常是檢查答案的措辭是否不同,而不是其含義。因此,它不太可能像計算語義熵那樣準確地發現幻覺,因爲它沒有關注句子中的詞語背後的含義。
研究人員表示,該算法可以通過按鈕添加到 ChatGPT 等聊天機器人中,讓用戶對他們的提示所得到的答案獲得 “確定性評分”。直接內置 AI 幻覺檢測器到聊天機器人中是誘人的,因此可以理解將這樣的工具添加到各種聊天機器人中的用途。
