OpenAI 正在加大對音頻人工智能模型的研發力度,旨在爲即將推出的語音優先智能硬件做好技術準備。在過去兩個月中,OpenAI 整合了多個工程、產品和研究團隊,集中力量攻克音頻交互技術,以提升語音 AI 模型在對話表現和響應能力上的表現。
內部人士透露,目前的語音對話音頻模型在準確性和響應速度上尚不及文本模型,因此 OpenAI 加速推進其架構升級,預計新一代音頻模型將在2026年第一季度問世。該模型將具備更自然且富有情感的語音輸出能力,並能夠更好地應對對話中的實時打斷與互動場景。
這次音頻技術的升級不僅僅是爲了改善現有的語音體驗,更與 OpenAI 即將發佈的語音優先個人設備密切相關。消息稱,這款設備預計在大約一年後進入市場,可能不僅是一款單一產品,而是一個包含多種形態的設備系列,例如無屏智能眼鏡或極簡屏幕的語音助手等。設計理念是減少對屏幕的依賴,通過自然的語音交流來提升用戶體驗。
此外,新音頻模型預計將支持 “邊聽邊說” 功能,也就是在用戶尚未說完時就開始響應,以實現更加流暢的實時交互體驗,這在當前許多語音 AI 中並不常見。綜上所述,OpenAI 正在加速向一個以 “語音爲核心接口” 的未來邁進,這既是其產品發展戰略的調整,也反映了科技行業對屏幕交互模式可能轉變的適應。
劃重點:
🗣️ OpenAI 正在加強音頻 AI 模型研發,爲未來的語音優先智能硬件做好準備。
🔄 新一代音頻模型預計將在2026年發佈,具備更自然和情感化的語音輸出能力。
🕶️ 即將推出的設備系列將減少對屏幕的依賴,通過自然語音交流提升用戶體驗。
