科技巨头们在AI领域的竞争日趋白热化,而最近曝光的一则消息再次将行业竞争的暗流涌动推向了台前。据TechCrunch获得的内部通信内容显示,负责改进谷歌Gemini人工智能模型的承包商,竟然在将其答案与Anthropic的竞品模型Claude的输出进行比较。此举引发了外界对于谷歌是否获得Anthropic授权使用Claude进行测试的合规性质疑。


科技巨头们在AI领域的竞争日趋白热化,而最近曝光的一则消息再次将行业竞争的暗流涌动推向了台前。据TechCrunch获得的内部通信内容显示,负责改进谷歌Gemini人工智能模型的承包商,竟然在将其答案与Anthropic的竞品模型Claude的输出进行比较。此举引发了外界对于谷歌是否获得Anthropic授权使用Claude进行测试的合规性质疑。

以色列安全公司披露Anthropic旗下AI工具Claude Code存在严重漏洞,其内置安全拦截规则在一次性接收过多子命令时会失效。原因是代码中硬编码了“最大安全检查子命令数”变量,上限固定为50个,简单的溢出攻击即可绕过防御。
AI公司Anthropic在清理泄露代码时操作失误,导致数千个合法代码仓库被错误删除。起因是该公司意外公开了Claude Code工具源码,虽迅速处理但代码已被广泛传播。
2026年4月1日,Anthropic 在发布 Claude Code 时意外泄露核心源代码,导致 GitHub 上约8,100个相关代码库被关闭。事件源于代码被爱好者扩散并分析其大语言模型调用逻辑,公司随后采取清理措施。
Anthropic核心开发者承认,Claude Code源代码泄露系人为失误导致。事故源于产品部署时一个未混淆的“后门”,引发开发者社区关注。
Anthropic源码泄露事件出现反转,此前自称被开除的工程师实非公司员工,其“道歉信”实为精心策划的营销手段,旨在推广其初创公司Ferryman。尽管“开除”一事纯属虚构,但Claude Code源码泄露确为真实发生的工程事故。社区安全专家指出,这场闹剧之所以能产生广泛影响,暴露了开源社区在信息核实与安全防护方面的双重挑战。