大型语言模型 (LLM) 在自然语言处理 (NLP) 领域取得了显著进展,使其在文本生成、摘要和问答等应用中大放异彩。然而,LLM 对令牌级处理(一次预测一个词)的依赖也带来了一些挑战。这种方法与人类的交流方式形成对比,后者通常在更高层次的抽象层面运作,例如句子或想法。



大型语言模型 (LLM) 在自然语言处理 (NLP) 领域取得了显著进展,使其在文本生成、摘要和问答等应用中大放异彩。然而,LLM 对令牌级处理(一次预测一个词)的依赖也带来了一些挑战。这种方法与人类的交流方式形成对比,后者通常在更高层次的抽象层面运作,例如句子或想法。


AI数据分析公司WisdomAI完成5000万美元A轮融资,由Kleiner Perkins领投,NVentures跟投。创始人表示资金将用于技术研发和市场拓展。公司专注于从各类数据中提取商业洞察。
微博AI部门推出开源大模型VibeThinker-1.5B,拥有15亿参数。该模型基于阿里Qwen2.5-Math-1.5B优化,在数学和代码任务表现优异。现已在Hugging Face等平台免费开放,遵循MIT许可证,支持商业使用。
韩国延世大学“自然语言处理与ChatGPT”课程曝出大规模作弊丑闻,数百学生涉嫌在期中考试中使用ChatGPT等AI工具作弊。教授声明作弊者成绩清零,受影响人数或超选课学生(约600人)半数。该课程为线上授课,期中考试于10月15日通过在线平台进行。
MiniMax M2模型采用全注意力机制,放弃线性或稀疏注意力技术。开发团队认为,尽管后者能节省计算资源,但全注意力在工业应用中更高效,能提升模型性能。这一决策旨在优化实际部署效果,推动AI技术发展。
Meta与爱丁堡大学合作开发CRV技术,通过分析大型语言模型内部推理电路,预测其推理正确性并修复错误。该方法构建模型激活计算图,高精度检测推理错误,提升AI可靠性。