2025年4月8日,英偉達推出Llama3.1Nemotron Ultra253B,這一基於Llama-3.1-405B優化的開源模型以253億參數超越Meta的Llama4Behemoth和Maverick,成爲AI領域焦點。
該模型在GPQA-Diamond、AIME2024/25及LiveCodeBench等測試中表現卓越,推理吞吐量達DeepSeek R1的四倍。通過優化訓練和算法,英偉達證明高效設計可讓小模型媲美巨型對手。

Llama3.1Nemotron Ultra253B通過HuggingFace開放權重,並採用商業友好許可。英偉達此舉不僅便利開發者,也推動了AI技術的廣泛應用和生態發展。
以較小參數挑戰萬億級模型,該模型展現“少即是多”的理念,或將促使業界反思參數競賽,探索更可持續的AI路徑。

其高性能和靈活性適用於代碼生成、科學研究等領域。隨着開發者深入使用,這一模型有望在2025年引發更大變革。
對於開發者而言,這一模型提供了高性能、低門檻的實驗平臺;對於企業而言,其商業許可和高效特性則意味着更低的部署成本和更廣泛的應用場景。從代碼生成到科學研究,再到自然語言處理,這一模型的多功能性有望在多個領域引發變革。
地址:https://huggingface.co/nvidia/Llama-3_1-Nemotron-Ultra-253B-v1
