Sakana AI 是一家专注于自然启发算法的人工智能研究实验室,近日推出了一种名为 Transformer² (Transformer-squared) 的创新自适应语言模型。该模型无需昂贵的微调,即可在推理过程中动态学习并适应新任务,这标志着大型语言模型 (LLM) 技术发展的重要一步。



Sakana AI 是一家专注于自然启发算法的人工智能研究实验室,近日推出了一种名为 Transformer² (Transformer-squared) 的创新自适应语言模型。该模型无需昂贵的微调,即可在推理过程中动态学习并适应新任务,这标志着大型语言模型 (LLM) 技术发展的重要一步。


日本数据科学家本田崇人推出开源编程语言“Sui”,旨在解决大语言模型生成代码的准确性问题,宣称可实现100%准确率。其设计理念源于日本美学“粋”,强调精炼与去除冗余,核心原则包括保证零语法错误率,并使用数字作为变量。
南洋理工大学推出首个全面评测大型语言模型处理电子病历能力的基准EHRStruct,涵盖11项核心任务、2200个样本,旨在评估模型在医疗数据理解、信息提取等方面的表现,推动医疗AI发展。
MIT研究团队开发出实例自适应缩放技术,可根据问题复杂度动态调整大型语言模型的计算资源,提升效率并降低能耗。该研究获多家机构支持,相关论文已于11月初发布。
OpenAI推出“忏悔”框架,训练AI模型主动承认不当行为或问题决策,旨在解决大语言模型因追求“符合预期”而可能产生虚假陈述的问题。该框架引导模型在给出主要答案后进行二次回应,详细说明其推理过程。
Evo-Memory是新型智能体框架,通过流式基准评估智能体在连续任务中积累和重用策略的能力,强调动态记忆演变,突破静态对话记录限制。