就在不久前的谷歌I/O柏林大會上,谷歌宣佈開源其最新語言模型Gemma2,該模型在性能和效率方面取得了重大突破。Gemma2提供9B和27B兩種參數規模的版本,其中27B版本的性能已經接近參數量爲70B的Llama3模型,但模型大小僅爲後者的40%左右。
Gemma2的主要特點包括:
(1) 提供9B 和27B 參數尺寸
(2) 一流的性能
(3) 能夠進行高效推理(在單個 NVIDIA H100GPU 或 TPU 主機上運行)
(4) 爲開發人員和研究人員設計的易於使用的模型
(1)卓越的性能:27B型號可與尺寸超過2倍的Llama3 70B型號相媲美
(2) 高效率:單個GPU即可實現全精度推理
(3) 廣泛的硬件支持:從遊戲筆記本電腦到雲端
(4) 開放許可:也可以用於商業用途
開發人員友好的設計
爲方便開發者使用,Gemma2兼容多種主流AI框架,如Hugging Face、JAX、PyTorch和TensorFlow等。谷歌還提供了新的Gemma2Cookbook,包含實際應用示例和指南。此外,谷歌計劃在不久的將來支持通過Google Cloud Vertex AI輕鬆部署Gemma2。

在負責任的AI發展方面,谷歌推出了一系列舉措,包括提供負責任的生成式AI工具包、開源LLM比較器(用於模型評估),以及計劃開源SynthID文本水印技術。谷歌還承諾進行嚴格的安全評估並公佈結果。

目前,開發者和研究人員可以通過Google AI Studio免費獲取Gemma2模型。模型權重也可以從Kaggle和Hugging Face平臺下載。對於學術研究人員,谷歌還提供了Google Cloud積分計劃,申請截止日期爲8月9日。
值得注意的是,Gemma2在權威的LMSys榜單上的表現超過了QWen1.5模型,進一步證明了其強大的性能。這一突破性成果將爲AI領域帶來新的機遇和挑戰,推動開源語言模型的進一步發展。
