相关推荐
马斯克宣布 X 平台推荐算法正式开源:基于 Grok 模型架构,每四周迭代更新
马斯克宣布开源X平台新一代推荐算法,采用Grok同款Transformer架构。算法虽仍需改进,但公开真实生产代码旨在推动技术透明与迭代。其核心通过预测用户互动概率进行内容排序。
2026年1月20号 16:06
114.1k
DeepSeek 推出 Engram 模块:为稀疏大模型植入“条件记忆轴”,效率大幅提升
DeepSeek团队推出Engram模块,为稀疏大语言模型引入“条件记忆轴”,旨在解决传统Transformer处理重复知识时计算资源浪费的问题。该模块作为混合专家模型的补充,将N-gram嵌入技术融入模型,提升处理重复模式的效率。
2026年1月15号 17:55
176.2k
英伟达推出 Nemotron 3:混合架构提升 AI 代理处理效率
英伟达发布Nemotron 3系列,融合Mamba与Transformer架构,高效处理长上下文并降低资源消耗。该系列专为自主执行复杂任务的AI代理系统设计,包含Nano、Super、Ultra三款型号。目前Nano已上市,Super和Ultra预计2026年上半年推出。
2025年12月18号 15:51
172.3k
120 人团队把万亿巨头拉下马:Runway Gen-4.5 盲测夺冠,正式宣战谷歌与 OpenAI
Runway公司最新模型Gen-4.5在第三方盲测平台Video Arena中击败谷歌Veo3与OpenAI Sora2Pro,成为首个由小团队登顶的大模型。其CEO强调“专注研究、快速迭代”的可行性,并指出“一百人对万亿,靠的不是预算,而是密度”。该模型采用自研时空混合Transformer架构,展现了小团队在AI视频生成领域的突破。
2025年12月2号 9:30
187.2k
13GB显存干翻百亿巨兽:大华「星汉2.0」用一张财报给AI落地写答案
大华股份在同行拼参数时,将6B视觉模型塞进16GB显存边缘盒子,Q3净利增44%至10.6亿元。其2019年起用Transformer自洗数据、自标注,五年后"1+2"体系发展出V/M/L系列模型,实现高效边缘AI部署。
2025年11月27号 16:43
168.5k
