在最近的一项重大合作中,OpenAI 与亚马逊网络服务(AWS)签署了一项价值380亿美元的协议,确保未来七年内获得庞大的计算能力。此次协议将使 OpenAI 能够使用数十万台英伟达 GPU,这些计算资源将托管在亚马逊全球数据中心的专用集群中。这标志着 OpenAI 在快速发展的人工智能领域再次巩固了其基础设施布局。
随着 AI 技术的快速演变,OpenAI 的目标已不仅仅是租用云计算服务,而是希望在其模型的基础上,塑造出一个专属的基础架构。OpenAI 致力于构建可以跟上其模型发展的基础设施,而非仅依赖于其他公司的技术堆栈。OpenAI 希望与 AWS 合作,推动基础设施的交付,确保培训、调优和部署层面能够保持一致的进展。
OpenAI 首席执行官萨姆・阿尔特曼表示:“扩展前沿 AI 需要大量可靠的计算资源。” 而 AWS 首席执行官马特・加曼则补充道:“OpenAI 继续推动可能性的边界,而 AWS 的顶级基础设施将作为其 AI 雄心的支柱。” 此次合作不仅增强了 OpenAI 的计算生态系统,还为其未来的 AI 模型发布提供了必要的支持。
在这次合作中,OpenAI 的其他合作伙伴也各司其职。微软 Azure 帮助其训练核心模型,CoreWeave 负责快速实验性运行,甲骨文提供区域能力,而谷歌云则支持 ChatGPT 的工作负载。AWS 的加入为 OpenAI 提供了更大的带宽和更快的部署能力,使其能够灵活地在各个合作伙伴之间调度工作负载,避免瓶颈并快速扩展。
划重点:
1. 🌐 OpenAI 与 AWS 达成380亿美元协议,未来七年内提供庞大计算能力。
2. ⚙️ OpenAI 希望塑造专属基础架构,以支持快速发展的 AI 模型。
3. 🔗 AWS 的加入将增强 OpenAI 的计算生态,提升数据流动效率。
