在 AIGC 橫掃圖像與文字領域後,影視行業的最後一個“人工堡壘”——配音,正在被阿里通義實驗室攻破。3月16日,通義實驗室正式發佈並開源了全球首個支持影視級、多場景配音的多模態大模型 Fun-CineForge

長期以來,AI 配音始終難以撕掉“機械感”和“播音腔”的標籤。尤其在影視劇場景中,角色的情感爆發、環境音的雜糅以及口型同步,一直是 AI 難以逾越的鴻溝。而Fun-CineForge的出現,正是爲了終結這一難題。

這款大模型採用了革命性的“數據+模型”一體化設計。除了模型本身,通義實驗室還配套開放了一套高質量數據集的構建方法。這意味着,AI 不再是簡單地讀取文本,而是能夠深度理解影視劇中的複雜語境,還原出細膩的情感起伏和多場景下的空間音效。

作爲阿里通義家族的新成員,Fun-CineForge的開源屬性極具殺傷力。它不僅爲視頻創作者提供了一個“影視級”的後期工具,更通過技術下放,讓中短劇甚至個人創作者也能以極低成本完成高質量的跨語言譯製。

從去年發佈的Qwen3-Omni到如今的Fun-CineForge通義系列正加速補齊多模態拼圖的最後一塊。當 AI 真正學會了“像人一樣演戲”,影視翻譯和後期製作的邏輯,或許將從此被徹底重寫。目前,該模型及其數據集構建方案已在相關開源平臺上線,這波“影視級 AI”的普及風暴,比我們想象中來得更快。