OpenAI 近期正加緊音頻人工智能技術的研發,旨在爲即將推出的語音優先智能設備做好充分準備。根據《The Information》的報道,在過去兩個月內,OpenAI 已經將多個工程、產品和研究團隊進行了整合,以更集中地攻克音頻交互技術。該團隊希望提升語音 AI 模型的對話表現和響應速度,爲用戶帶來更流暢的交流體驗。

知情人士透露,目前的語音對話模型在準確性和響應速度上仍然無法與文本模型相提並論。因此,OpenAI 正在加速推進架構的升級,計劃在2026年第一季度發佈新一代音頻模型。新模型將具備更加自然和富有感情的語音輸出能力,並能更好地應對對話中的實時打斷與互動場景。

image.png

這次技術升級不僅是爲了改善現有的語音體驗,更是與 OpenAI 即將發佈的語音優先個人設備密切相關。據報道,這款設備預計將在約一年後推向市場,可能不只是一款單一產品,而是一個設備系列,涵蓋無屏智能眼鏡、屏幕極簡的語音助手等多種形態。這些設備的設計理念是減少用戶對屏幕的依賴,通過自然的語音交流來提升整體的使用體驗。

值得一提的是,新音頻模型還將支持 “邊聽邊說” 的功能,即在用戶尚未完成發言時,設備便開始響應,從而實現更順暢的實時交互體驗。這一創新在目前大多數語音 AI 產品中尚不常見。

綜合來看,OpenAI 正在加速向一個 “以語音爲核心接口” 的未來邁進。這不僅是其自身產品發展的戰略調整,更是科技行業對交互模式轉變的積極迴應。