随着全球人工智能竞争日益激烈,被誉为“人工智能之父”的诺贝尔奖得主杰弗里·辛顿再次发出严肃警告。在接受《财富》杂志采访时,他直言当前科技行业领导者并未真正思考技术的最终结局,他们的核心动力仅仅是短期利润。
辛顿认为,无论是企业主还是一线研究人员,目前的关注点都高度分散:企业主关注财务报表,而研究人员则忙于解决诸如图像清晰度提升或视频真实性增强等具体工程问题。在商业成功的急切追求中,“人类将会怎样”这一重大问题被搁置一旁。
辛顿明确将人工智能带来的风险分为两个层面:
**恶意行为者的滥用:**伪造视频(Deepfakes)、网络攻击以及未来可能出现的AI辅助病毒合成等威胁已经显现。
![]()
**人工智能自身成为威胁:**这是辛顿最为担忧的“长期威胁”。他认为,一旦AI达到“超智能”水平,它将产生自我生存和控制的动机,届时“人类能够控制AI”的假设将彻底失效。
辛顿给出了令人不寒而栗的预测:在实现超智能后,AI导致人类灭绝的概率可能高达10%至20%。为应对这一威胁,他提出了一个具有强烈生物学特征的概念——“母性本能”机制。
“唯一一个更智能的存在被较弱存在影响的例子,是婴儿对母亲的影响。”


