学術ニュース速報によると、清華大学、TAL AI Lab、智譜AIの研究者らが、大規模言語モデルの数学的推論能力を探るため、20億パラメーターの言語モデル「MathGLM」を開発しました。このモデルはTransformerデコーダアーキテクチャを採用し、大規模な算術データセットで訓練されており、数学演算能力が大幅に向上しています。実験結果によると、MathGLMは様々な算術演算タスクにおいて、正解率がほぼ100%に達し、GPT-4を明らかに上回っています。パラメーター数が1億しかない場合でも、GPT-4やChatGPTを凌駕しています。さらに、パラメーター数の増加に伴い、MathGLMの算術演算能力も向上することが分かりました。複雑な数字形式を含む混合算術演算においても、GPT-4やChatGPTより優れた性能を示しました。この研究は、パラメーター数とデータ量が十分であれば、言語モデルが複雑な数学演算を正確に実行できることを示唆しています。
関連推奨
アリババ・テンセントQwen3-Maxが公式ウェブサイトでディープシンキング機能をリリース
阿里通義千問がQwen3-Maxを発表。新機能「深度思考」モードで複雑なタスク処理を効率化。パラメータ数1兆超、学習データ36Tトークンの大規模モデルで、コード生成とエージェント能力が向上。....
Nov 3, 2025
170.4k
アップルが新規な FS-DFM モデルを発表。AIによる長文作成効率が128倍向上!
アップルとオハイオ州立大学が共同で FS-DFM モデルをリリースしました。従来のモデルが何千回もイテレーションを行う必要がある長文生成を、わずか8回のイテレーションで実現可能にし、書き込み速度は最大128倍向上しました。このモデルは、ChatGPTなどの逐文字生成を行う自己回帰モデルとは異なり、離散フロー整合技術を採用しています。
Oct 14, 2025
151.6k
アリババがトレンドパラメータ言語モデル「Ling-1T」を発表。推論速度と能力が業界の新たな基準を示す
アントグループが初の1兆パラメータOSSモデル「Ling-1T」を発表。推論・コード生成・数学計算で優れた性能を発揮し、中国AIの新たな基準を確立。....
Oct 9, 2025
161.1k
グーグルDeepMindがVaultGemmaを発表。差分プライバシーに対応
DeepMindが新たに発表した言語モデル「VaultGemma」は差分プライバシー技術を採用した10億パラメータのオープンソースモデル。従来のLLMが抱える個人情報漏洩リスクを解決する画期的なAI技術です。....
Sep 16, 2025
149.8k
バイトSeedが新規AgentGym-RLフレームワークをリリース: 大規模言語モデルの意思決定能力を向上
大規模言語モデルエージェントの開発に焦点を当て、強化学習フレームワークによる自律学習を支援。教師あり微調整に依存しないゼロからの効果的なトレーニング方法を探索する。....
Sep 11, 2025
162.0k
