美国军方对人工智能的过度热情正引发严重担忧,专家警告如果不加以控制,可能会导致重大的民事灾难。
根据法律与政策智库布伦南中心的一份最新分析报告,美国国防部计划在2026年投入134亿美元用于“自主与自动系统”。这笔巨额资金不仅用于将人工智能集成到武器平台,还涵盖了监视、维护、供应链和行政管理等多个领域。
随着人工智能的广泛应用,相关风险也在增加。算法错误可能导致无差别杀伤、错误逮捕以及公民自由的严重侵害。报告特别指出,即使有人类介入,也无法完全避免不安全的人工智能系统带来的失败。指挥官和武器系统操作员本应独立核实人工智能生成的目标,但现实中他们往往过于依赖算法推荐。

此外,过度依赖人工智能可能使士兵将生命简化为屏幕上的数据点,从而麻木于杀戮和破坏行为。
事实上,人工智能武器系统已经造成了严重的生命和自由损失。据《华尔街日报》报道,美国军方利用Anthropic公司的Claude人工智能收集的情报,在伊朗发动了超过3000次打击行动。截至3月6日,至少有1332名伊朗平民在这些袭击中丧生,其中包括一场针对一所女子小学的双重打击中超过175名学生和教职员工。
虽然尚不清楚人工智能是否直接参与了选择该目标的决策,但军方对人工智能的狂热已与大量人员伤亡相关联,若无实质性改变,未来伤亡数字可能进一步攀升。


