AI 視頻生成正在從“能畫出來”向“真實世界”加速進化。

3月31日,愛詩科技(AIsphere) 正式開啓“閃電發佈周”,並於首日重磅發佈了全新升級的視頻生成大模型 PixVerse V6。該版本在人物真實感、物理模擬及敘事連貫性上實現全面突破,標誌着 AI 視頻正從生成畫面走向“構建世界”。

image.png

質感躍遷:皮膚紋理與情緒的“實拍級”表現

人物表現一直是 AI 視頻的“深水區”。PixVerse V6 針對細節進行了深度優化:

  • 拒絕“磨皮感”: 模型生成的皮膚具備真實的紋理結構、毛孔與細紋,光影反射更加自然,告別了以往 AI 視頻常見的單一光滑表面。

  • 情緒遞進: 人物表情不再僵硬,能夠隨着鏡頭的推進展現出層次分明的細膩情感,特寫鏡頭表現力直逼實拍質感。

物理覺醒:複雜運動中的“時空穩定性”

在高動態場景中,PixVerse V6 展現了極強的物理屬性模擬能力:

  • 動作不穿模: 無論是高速追逐還是多人打鬥,角色間的運動關係保持高度穩定,大幅減少了穿模與干擾現象。

  • 規律模擬: 模型深度理解了液體流動、布料擺動以及物體碰撞的物理邏輯,使動態畫面呈現出符合直覺的自然律動。

敘事升級:多鏡頭切換下的視覺統一

爲了滿足專業影視創作需求,PixVerse V6 攻克了鏡頭連貫性難題:

  • 慣性保持: 當鏡頭從遠景切換至近景時,人物運動的慣性、光源方向與陰影關係均能保持統一,不再是簡單的畫面拼接。

  • 時空一致: 確保切鏡前後的邏輯自洽,使 AI 生成的視頻具備了完整的視覺敘事能力。

全民創作:零門檻生成“子彈時間”與 FPV

除了性能提升,PixVerse V6 極大地簡化了創作流程:

  • 短提示詞驅動: 創作者無需堆砌複雜的參數,通過簡短描述即可生成包含子彈時間、FPV(第一人稱視角)、延時攝影等專業特效的鏡頭。

  • 多端覆蓋: 該模型已同步上線 拍我AI 的 Web 端、App 端及 API 平臺,讓開發者與普通用戶均能即刻體驗。

結語:從“生成畫面”到“構建世界”

PixVerse V6 的發佈,不僅是畫質的迭代,更是對 AI 視頻生成邏輯的一次重構。當模型開始理解光線、運動與重力,AI 視頻便擁有了模擬現實的靈魂。隨着創作門檻的持續降低,一個“更真、更美、更好用”的 AI 影像時代已經觸手可及。