近日,DeepMind创始人Demis Hassabis发表了令人震惊的言论。他坦言,正在研发的超级人工智能确实存在导致人类灭绝的风险,而全球范围内的AI发展竞赛已进入“不可逆转”的失控状态。

Hassabis指出,受商业竞争和技术对抗的双重压力影响,传统的外部监管措施难以有效约束人工智能的发展。这一表态引发了科技界对AI安全“窗口期”不断缩小的深切担忧。

系统性防线崩溃,安全标准为发展速度让步

Hassabis曾是AI安全的坚定支持者,早期尝试通过独立监督和秘密研发建立“技术安全网”。然而,2022年ChatGPT的突然出现打乱了原有的发展节奏,迫使谷歌等公司合并研发部门以应对竞争,原有的安全审查机制逐渐失效。

他坦承,依赖伦理委员会和外部体系来监管AI的想法基本失败。在激烈的商业竞争面前,非营利性治理机制往往难以保持实质性影响力。

转向个人影响力,掌控关键决策岗位的最后防线

面对当前的失控局面,Hassabis改变了治理策略,试图通过占据关键决策岗位来发挥个人影响力。他一边推动Gemini等顶尖模型的研发,一边利用自身的技术权威在关键环节管理风险流动。