国际社会一直强调,战争中最重要的一条底线是“扣动扳机的必须是人,而非机器”。这听起来很合理,但现实往往比理论更复杂。人,是会“异化”的。

现在,名义上的无人武器并非完全自主的“杀人机器”,它们只是替代人类上前线,而最终的击杀决定权似乎还握在人手中。同样,AI大模型在军事决策中也只是扮演“超级参谋”的角色,负责整合分析海量数据,提出作战方案,最终仍需人类指挥官审批。
但事实真的如此吗?
想象一下,你是一名无人机飞手,坐在舒适的操控室里,屏幕上的无人机却在数十公里外搜寻目标。突然,屏幕上出现几个模糊的热成像光点,它们可能是士兵,也可能是平民。在信息如此有限的情况下,你如何做出判断?又或者,你是第一视角无人机的飞手,身处危险的前线,精神高度紧张。你看到前方一个移动的身影,本能地冲了上去,直到最后一刻才发现对方只是个穿着军装的平民。
好消息是,在俄乌战场上,这种极端情况并不多见。这是因为冲突初期是传统的机械化战争,经过四年消耗,前线早已变成无人区。但如果下一场战争,从一开始就是双方依靠视野有限、成像模糊的无人机进行大规模厮杀呢?
更大的问题,来自AI大模型辅助的军事决策。
当AI处理的数据量远远超出人类的认知极限时,指挥官如何才算“充分评估”了AI提出的作战建议?如何才算给了自己“充分的考虑时间”?这些问题最终都指向一个核心:当AI给出了基于大数据的“最优解”后,决策者是否会放弃独立思考?
这样一来,战争将彻底异化:那些按下按钮、驾驶战机、操纵无人机的,依然是人类,但真正下达指令的,其实是AI。
在美以伊战争中,已经出现了这种趋势。这是美军决策机制首次接入大模型,为大规模战争提供作战方案。起初,空袭目标还集中在军事领导人和核设施上;但随后,打击范围开始扩大到政府机构、警察局;到了4月初,公路、桥梁等民用基础设施也成了重点目标。外界不清楚这是否是AI基于“分阶段打击”策略给出的建议,但显然,这已经不像机械化战争时代那样“体面”。
在日常生活中,我们常向AI询问没有标准答案的社会、情感问题。那么,在制定作战方案时,一旦AI被要求“速战速决”,它会如何在宏观上权衡军事利益与平民伤亡?如何精确计算“比例原则”的上限?
最终,AI可能会告诉你,这份方案虽然“不体面”且有争议,但足以规避法律风险,且效率最高。你会用,还是不用?
对此,学者们给出的建议包括:定期清理数据、明确各级责任、培训指挥官了解AI,甚至在AI决策中设定“阻断机制”,比如“识别出医院就直接跳过”。
但令人悲观的是,AI对“军事必要”和“比例原则”的极端计算,只会让决策者对附带伤害的“容忍度”越来越高。当效率成为压倒一切的逻辑,人性的底线,或许正在被一点点侵蚀。