微博は自社開発のオープンソース大規模モデル「Vibe Thinker」を正式にリリースしました。150億パラメータで国際的なトップクラスの数学コンペティションのベンチマークテストで、6710億パラメータを持つDeepSeek R1を打ち勝ち、正確性が優れ、1回の「後訓練」コストは7800ドルにとどまり、DeepSeek-R1やMiniMax-M1などのモデルより数十倍も低コストです。
Vibe Thinkerは軽量なMoEアーキテクチャと多ラウンドの知識蒸留を採用しており、公式には5GB以下の数学テキストデータで効率的なファインチューニングが可能であると説明しています。Hugging Faceからワンクリックでダウンロードでき、商用利用許諾も提供されています。微博の技術チームによると、モデルはAIME 2025やHMMTなどの競技問題集においてR1よりも平均スコアが3.4%向上し、推論遅延は42%低下しており、教育や金融などリアルタイムが必要なシナリオに適しています。
オープンソース版ではPyTorchおよびGGUF形式が提供され、単一のRTX4090でも動作可能です。微博は同時にトレーニングスクリプトとデータの比率設定方案も公開しており、12月には「Vibe Thinker-Math」という専用数学強化バージョンをリリースする予定です。また、大学と協力して「軽量級数学チャレンジ」を開催し、低コストかつ高精度なAIの普及を推進する計画です。
