OpenAIは最近、Sora動画生成APIに重要なアップデートを公開しました。Sora2モデルを基盤として、5つの主要な機能向上が導入され、バッチ処理による動画生成における一貫性、時間長、およびマルチフォーマット対応の課題を主に解決し、開発者やコンテンツ作成者のスケーラブルな効率を大幅に向上させました。
最も重要な改善点は、キャラクターの一貫性サポートです。これまでAPIを使って一括で動画を生成する際には、同じメインキャラクターが異なるシーンで顔の特徴、服、小物などの視覚的なズレが生じていました。今では開発者が事前にキャラクター「アカウント」(外見、服、アクセサリーなど)をアップロードまたは定義することができ、モデルは後続の複数のセグメント生成で自動的にこの参照を再利用し、シーンを超えて視覚的な連続性を確保します。この機能により、後の編集コストが著しく低下し、特に広告、ショートドラマ、シリーズコンテンツなど、主人公が全編を通じて登場する場面において効果的です。

動画の長さは以前の上限から20秒に引き上げられました(以前は12秒や16秒が多かった)。これにより、作成者は一度でより完成度の高いストーリーのセグメントやダイナミックなカットを生成でき、頻繁なつなぎ合わせによる品質の低下やスタイルの断絶を避けることができます。また、APIにはビデオの延長(extend)機能が新たに追加され、既存のセグメントに基づいて自然に続きの生成が可能となり、さらに長いストーリー構築を支援します。
出力形式に関しては、一度のタスクで16:9の横画面(YouTubeやPC向け)と9:16の縦画面(TikTokや短い動画プラットフォーム向け)の両方の1080p素材を同時に生成できます。二次的なトリミングや再レンダリングが必要なく、マルチプラットフォーム配信プロセスを大幅に簡略化します。
さらに、更新によりBatch APIの非同期バッチ処理のサポートが強化されました。これは大規模なオフラインレンダリングキュー、スタジオワークフロー、または自動化された製造パイプラインに適しています。
URL:https://developers.openai.com/api/docs/guides/video-generation
