就在全球 AI 竞赛进入白热化阶段时,诺贝尔奖得主、被誉为“AI 教父”的 杰弗里·辛顿(Geoffrey Hinton) 再次发出沉重警示。他在接受《财富》杂志采访时直言不讳地指出,当前的科技行业领袖并未真正思考技术的终局,他们的核心驱动力仅在于短期利润。
辛顿认为,无论是企业所有者还是前线研究人员,目前的关注点都高度碎片化:所有者盯着财报,研究人员则忙于解决如何让图像更清晰、视频更逼真等具体工程问题,而“人类未来会怎样”这一宏大命题在商业冲刺中被束之高阁。
辛顿将 AI 带来的风险清晰地划分为两个维度:
坏人滥用: 已经出现的虚假视频(Deepfake)、网络攻击,以及未来可能出现的 AI 辅助病毒合成。
AI 自身成为不良行为者: 这是辛顿最为担心的“长期威胁”。他认为,一旦 AI 达到“超级智能”水平,它将产生生存和控制的动机,届时“人类控制 AI”的假设将彻底失效。
辛顿给出了一个令人不寒而栗的预测:在超级智能实现后,AI 导致人类灭绝的概率可能高达 10% 至 20%。为了对抗这种威胁,他提出了一个极具生物学色彩的构想——“母性本能”机制。
“目前唯一一个更聪明的存在被较弱者影响的例子,是婴儿对母亲的影响。”
辛顿建议,人类应当尝试为 AI 设计类似的本能,使其对人类产生同情而非控制欲。在这种模型下,超级智能如同“母亲”,而人类则扮演脆弱但能触发同情心的“婴儿”。
