騰訊近日正式開源緊湊型 AI 翻譯模型 Hy-MT1.5-1.8B-1.25bit。該公司聲稱,該模型在保持高性能的同時,可在智能手機上實現完全離線運行。目前,該模型支持包括中、英、德、法、日、藏、蒙在內的33種語言及5種方言,涵蓋1056個翻譯方向,並在國際機器翻譯大賽中累計斬獲30項冠軍。

圖表說明了質量和型號:Hy-MT 1.25 位和 2 位 440 bzw。 574 MB ähnliche FLORES-200-Werte wie viel größere 模型。

技術突破的核心在於“激進壓縮”方案:通過每參數僅使用1.25比特的量化技術,該模型體積從3.3GB 驟減至440MB,較此前的1.67比特方案縮小約25%,推理速度提升約10%,且未產生質量損失。在標準基準測試中,僅440MB 的 Hy-MT 表現出與商業翻譯服務及 Qwen3-32B 等超大模型相當的翻譯質量,實現了以極小量級抗衡百 GB 級模型的跨越。

目前,騰訊已提供 Android 演示應用(APK 形式),支持對手機內任何應用的文字進行跨屏離線翻譯。行業觀察指出,隨着谷歌推出本地化模型 Gemma4,終端側 AI(On-device AI)已成爲技術競爭新前線。騰訊 Hy-MT 通過量化技術的突破,大幅降低了高品質 AI 翻譯的算力門檻,爲智能終端在複雜隱私環境下的離線應用提供了極具競爭力的開源底座。