40億パラメータで「小で勝つ」、中国製の大規模モデルがローカル配置の新時代を開く
AI業界では、「パラメータ数が知能を決める」という過激な美学が長年語られてきた。しかし、アリババが最近公開した
この「階級を超えた挑戦」は、第三者機関N8 Programsによって行われた。テスト担当者はWildChatデータセットから1000個のリアルな質問をランダムに抽出し、Qwen 3.5-4BとGPT-4oを同時に行わせ、現在最も強力なOpus 4.6を審判として採用した。結果は予想外だった:この千回の質問応答の「競技場」で、Qwen 3.5-4Bは499勝、431敗、70分の成績でGPT-4oを下回った。
最も衝撃的なデータは、GPT-4oのパラメータ数は2000億に達すると伝えられていることである。一方、Qwen 3.5-4Bのパラメータ数はその約2%に過ぎない。これは、アリババが極めて少ないリソースを消費して、最高レベルの論理的出力を得たことを意味している。
性能の強さだけでなく、Qwen 3.5シリーズの「魂」はその非常に高い親和力――ローカル配置にある。公式には、0.8B、2B、4B、9Bの4つのサイズを一気に発表し、IoTエッジデバイスからサーバーサイドまですべてのシナリオをカバーしている。特に4Bバージョンでは、理論的には8GBのVRAMで動作可能で、推奨は16GB VRAMでスムーズに動作する。
一般ユーザーおよび開発者にとって、これは一種の「計算力の解放」である。数十万円の専門的なコンピュータカードを必要とせず、自宅のパソコンやスマートフォンでも、トップクラスの大きなモデルに匹敵する「個人アシスタント」を持つことができる。
正に
