谷歌正面臨其搜索體驗重構以來最嚴峻的質量信任危機。儘管“AI 概述”(AI Overviews)已成爲谷歌搜索的核心,但頻發的“幻覺”現象——包括編造事實、前後矛盾以及在醫療等關鍵領域提供錯誤建議,迫使這家科技巨頭不得不採取緊急補救措施。

谷歌 (3)

根據最新的招聘信息,谷歌正在招募“AI 答案質量工程師”,專門負責優化 AI 模式及搜索結果頁(SRP)下的生成式答案。招聘要求顯示,這些工程師將致力於解決複雜查詢下的 AI 表現,確保在基礎設施擴展的同時,維持信息的準確性。這被外界視爲谷歌首次間接承認其 AI 概述功能在可靠性上存在顯著缺陷。

實際測試揭示了問題的嚴重性:在針對同一初創公司估值的兩次提問中,AI 概述給出了從400萬到7000萬美元不等且完全錯誤的引用答案。更爲嚴重的是,《衛報》近期披露,谷歌 AI 曾在針對胰腺癌等重疾提供健康建議時,給出了與醫療標準完全相反、甚至可能致命的指導。

此外,谷歌近期在 Discover 信息流中測試的 AI 重寫新聞標題功能,也因產生誤導性“標題黨”內容而遭到出版商的強烈抨擊。隨着用戶對谷歌搜索結果的天然信任度受到挑戰,如何消除 AI 幻覺已成爲谷歌保住搜索霸主地位的關鍵戰役。