IBMは、企業向けAI分野におけるリーダーシップを目指し、次世代オープンソース大規模言語モデル「Granite3.1」を正式にリリースしました。このシリーズのモデルは、128Kの拡張コンテキスト長、埋め込みモデル、内蔵の幻覚検出機能、そして大幅な性能向上を特徴としています。

image.png

IBMは、Granite8B Instructモデルが、MetaのLlama3.1、Qwen2.5、GoogleのGemma2など、同規模のオープンソース競合製品の中で最高の性能を発揮すると主張しています。

image.png

Granite3.1モデルのリリースは、IBMがGraniteシリーズを迅速に進化させてきた流れの一環であり、10月にはGranite3.0がリリースされています。IBMは、生成AI関連の事業収益が20億ドルに達したことを明らかにしています。新バージョンの核となる考え方は、より多くの機能をより小さなモデルに統合することで、企業ユーザーがより簡単に、そしてより費用対効果の高い運用を可能にすることです。

IBMリサーチ部門の副社長であるデビッド・コックス(David Cox)氏は、GraniteモデルはIBMの内部製品、コンサルティングサービス、顧客サービスで広く利用されており、オープンソースとして公開されているため、あらゆる面で高いレベルの品質が求められると述べています。モデルの性能評価は速度だけでなく、効率性も重視されており、ユーザーが結果を得る時間を節約することに役立ちます。

コンテキスト長の点では、Granite3.1の向上が特に顕著で、初期バージョンの4Kから128Kに拡張されました。これは、特に検索強化生成(RAG)やインテリジェントエージェントAIにおいて、企業向けAIユーザーにとって非常に重要です。コンテキスト長の延長により、モデルはより長い文書、ログ、会話などを処理できるようになり、複雑なクエリへの理解と対応が向上します。

IBMは、データのベクトル変換プロセスを高速化する一連の埋め込みモデルも発表しました。その中でも、Granite-Embedding-30M-Englishモデルのクエリ時間は0.16秒と、競合製品よりも高速です。Granite3.1の性能向上を実現するために、IBMは多段階トレーニングプロセスと高品質なトレーニングデータの使用において革新的な取り組みを行いました。

image.png

幻覚検出に関しては、Granite3.1モデルは幻覚保護をモデル内部に統合しており、自己検出を行い、誤った出力を削減します。この内蔵検出機能により、全体的な効率が向上し、推論呼び出し回数が減少します。

現在、Granite3.1モデルは企業ユーザー向けに無料で公開されており、IBMのWatsonx企業向けAIサービスを通じて提供されています。今後、IBMは迅速な更新ペースを維持し、2025年初頭にはGranite3.2でマルチモーダル機能を導入する予定です。

公式ブログ:https://www.ibm.com/new/announcements/ibm-granite-3-1-powerful-performance-long-context-and-more

要点:

🌟 IBMは、オープンソース大規模言語モデル市場におけるリーダーシップを目指し、Granite3.1モデルを発表しました。

💡 新モデルは128Kのコンテキスト長に対応し、処理能力と効率性が大幅に向上しました。

🚀 幻覚検出機能がモデルに統合され、全体的な性能と正確性が向上しました。