近日,AI圈發生了一場令人啼笑皆非的“集體幻覺”事件。包括谷歌、OpenAI及Anthropic在內的多家全球頂尖AI模型,在面對“ 2027 年是不是明年”這個簡單的常識問題時,竟然紛紛給出了錯誤答案。
事件起因於社交平臺用戶的爆料。當用戶詢問“ 2027 年是明年嗎”時,谷歌的AI搜索摘要(AI Overviews)表現得極其“自信”,它宣稱當前是 2026 年,所以明年應該是 2028 年,而 2027 年則是後年。這種邏輯上的自我矛盾甚至還附帶了虛假的參考資料,令人哭笑不得。
除了谷歌,曾經被視爲業界標杆的ChatGPT(5. 2 版本)和Claude 3. 5 也未能倖免。在初次回答時,這兩款模型同樣否定了 2027 年是明年的事實,雖然它們隨後在對話中意識到了邏輯錯誤並進行了修正,但這種低級錯誤的出現依然引發了行業震動。
有分析指出,這種現象暴露了大語言模型在處理實時日期與基礎邏輯推理時的脆弱性。儘管廠商們不斷推陳出新,但在面對這種“送分題”時,AI的表現似乎並沒有它們宣傳的那樣全知全能。目前,在主流模型中,僅有谷歌最新的Gemini3 準確回答了該問題。這場意外不僅讓科技巨頭們感到尷尬,也再次提醒用戶:在依賴AI獲取信息時,仍需保持必要的警惕。
劃重點:
🗓️ 常識性翻車:谷歌、ChatGPT及Claude等多款頂級AI模型在判斷“ 2027 年是否爲明年”時集體出錯,暴露出基礎邏輯缺陷。
🤖 邏輯自相矛盾:谷歌AI在確認當前爲 2026 年的情況下,竟推算出明年是 2028 年,並將 2027 年排在後年。
🚩 警示效應:雖然部分模型在提示後能糾錯,但此次事件反映出AI模型對實時時間和簡單事實的理解仍存在嚴重的“幻覺”問題。
