OpenAI近日向Sora視頻生成API推送重要更新,基於Sora2模型正式引入五項核心能力升級,主要解決批量視頻生產中的一致性、時長和多格式適配痛點,大幅提升開發者與內容創作者的規模化效率。
最關鍵的改進在於角色一致性支持。過去使用API批量生成視頻時,同一主角在不同場景下往往出現面部特徵、服裝、道具等視覺漂移。現在開發者可預先上傳或定義角色“檔案”(包括外觀、服裝、配件等),模型會在後續多個片段生成中自動複用該參考,確保跨鏡頭、跨場景的視覺連續性。這一功能顯著降低了後期修圖成本,尤其適用於廣告、短劇、系列內容等需要主角貫穿始終的場景。

視頻時長從此前上限提升至20秒(之前多爲12秒或16秒級別),允許創作者一次生成更完整的敘事片段或動態鏡頭,避免頻繁拼接帶來的質量損耗與風格斷層。同時,API新增視頻延續(extend)能力,可基於已有片段自然接續生成,進一步支持更長敘事構建。
輸出格式方面,一次任務即可同時生成16:9橫屏(適用於YouTube、PC端)和9:16豎屏(適配TikTok、短視頻平臺)兩套1080p素材,無需二次裁剪或重渲染,極大簡化多平臺分發流程。
此外,更新強化了Batch API異步批量處理支持,適合大規模離線渲染隊列、工作室工作流或自動化生產管道。
地址:https://developers.openai.com/api/docs/guides/video-generation
