潘政麟:美以联军让AI进入战争核心决策

美国和以色列近期对伊朗的联合打击,最令人震撼的,或许不只是火力规模本身,而是战争节奏被彻底改写。美国军方在代号“史诗怒火”的行动中,使用由科技公司帕兰提尔(Palantir)主导的Maven体系,并接入Anthropic公司的Claude等大模型,辅助情报整合、目标识别、优先级排序与作战场景模拟。换句话说,人工智能(AI)已经不再只是战场上的宣传工具,也不只是后端分析软件,而是开始嵌入现代战争最核心的决策链条。

过去,战争有一种人类速度,从侦察到分析,从研判到通报,再到法律审查与最终授权,每一个环节都须要层层转译、讨论与确认。这个过程虽然缓慢,却天然带有某种刹车机制:人的疲劳、迟疑、复核与争论,本身就是一种决策缓冲。然而今天,AI正在压缩这段缓冲时间。美国中央司令部的公开说法是,这类AI工具能够先对海量数据进行初筛,让分析员把精力集中在更高层次的判断与核实上。多家媒体的报道则指出,在对伊朗的行动中,AI所承担的角色,正是把卫星影像、无人机画面、通信情报与历史资料快速整理、标注并推送给人类分析师。

这意味着,现代战争正在从人决定一切,转向机器先定义问题,人再做最后确认。表面上看,人类仍然握有最终授权,但真正的问题在于,当系统能在极短时间内生成大量目标建议、威胁排序与行动选项时,人类审批是否仍是实质性的审查,还是逐渐退化为程序性的盖章?这正是军事AI最危险的地方:它未必已经完全取代人,却可能先把人的作用压缩成形式上的在回路中(编按:Human-in-the-Loop,简称HITL,意指人机协同互助)模式。

谁的决策链短 谁先夺取战场节奏

这一争议在不久前Anthropic与五角大厦的公开冲突中,体现得尤为明显。据报道,美国总统特朗普政府一度下令联邦机构停用Anthropic模型,理由是Anthropic不允许它的技术用于大规模国内监视以及部署在全自主武器系统上,但几乎在同一时期,美军现有系统仍在伊朗行动中继续使用Claude,因为它已深度嵌入相关工作流,短时间内根本无法直接拔除。随后,OpenAI也迅速与五角大厦达成新的合作安排。这说明,一旦AI被嵌入军事基础设施,政策层面的封禁,并不等于操作层面的退出。技术可以在白宫文件中被划掉,但在战场上,它往往已变成难以轻易替换的神经系统。

从更深层看,这不只是某家公司、某一款模型、某一次空袭的问题,而是战争逻辑被整体改写的问题。传统战争比拼的是工业能力、火力密度与后勤深度;AI战争则进一步比拼谁能更快完成“观察—判断—决策—行动”的闭环。Maven这类系统的真正价值,不在于替人按下发射按钮,而在于让军队以远超人类处理能力的速度,完成目标发现、情报归纳与优先级压缩。谁的决策链更短,谁就更可能先打击、先瘫痪、先夺取战场节奏。

但速度从来不是中性的。支持者强调,AI可减轻分析员负担,降低漏判概率,并提升打击精度;批评者则指出,AI同样会继承错误数据、旧地图、偏见标签与不透明逻辑,而且一旦出错,后果会因自动化规模而被迅速放大。如果系统依据过时资料,持续将某个地点标示为高价值军事目标,它提供给人的就不是中立建议,而是一种高度技术化,却可能致命错误的推荐。近期舆论争议的一起案例是,一所伊朗南部女子小学在空袭中被炸毁造成160多人死亡。该校邻近伊朗伊斯兰革命卫队的一处海军基地,而该基地同日也是另一空袭目标。目前影像显示是美国导弹所为,但尚无法确认与AI有关。可以肯定的是,AI不会因为自己产生幻觉而停下,它只会更高效地把错误转化为行动。

这便把责任问题推到最前面。国际人道法的核心精神之一,是无论武器多先进,最终都必须能够追溯到具体责任主体。但在AI日益深入战场的今天,责任链条正在变得模糊:是模型开发者负责,还是部署平台负责?是输入有问题数据的情报部门负责,还是最后点击确认的军官负责?如果一个目标建议已经过多层算法筛选、融合、排序与推荐,再由人类在几秒钟内批准,那么究竟是谁在做决定?现有国际法与各国监管框架,其实都还没有真正准备好回答这个问题。

更值得警惕的是,AI战争并不只发生在导弹发射的那一刻,而是更早。它开始于监视网络的搭建,开始于通信数据的拼接,开始于人物关系网的推演,开始于行为模式的建模。换句话说,AI战争的前提,是数据化战争。谁能先把城市、社会、官员、基础设施乃至公众生活,转化为机器可读、可计算、可建模的数据,谁就能更早建立起目标锁定能力。因此,AI战争带来的真正冲击,不只是武器更聪明,而是国家与社会在高度数码化之后,也更容易成为被计算、被追踪、被锁定、被打击的对象。

这个目标,真的该打吗?

这对所有面对高科技安全威胁的社会,都是极其现实的问题。培养AI军事人才,绝不能只理解为把系统操作得更熟练,因为真正的竞争力不只是会不会用软件,而是能不能理解数据来源、模型局限、误判风险、作战伦理与责任边界。未来军队需要的,不只是会操作界面的军官,还需要能质疑模型、核验数据、识别偏差,并真正理解法律与人道原则的人。

否则,所谓人在回路中,最后很可能只是人在屏幕前。那不是人在掌控AI,而是人被AI推着做决定。

因此,AI战争新时代的真正课题,从来不是要不要发展军事AI。现实已告诉我们,各国都会发展,而且不会停下。真正的问题在于,在这场不可逆的技术竞赛中,人类还能否守住判断、责任与伦理的边界。技术当然应该服务人类,但前提是人类仍保有真正的判断权,而不是把道德与责任外包给速度、效率和一套看似客观的模型。

如果未来战争真的进入机器速度,一个社会最后的安全,不只取决于它有没有更强的AI,也取决于它是否还有能力在最紧张的时候,仍然坚持问一句:这个目标,真的该打吗?

(作者是清华大学马来西亚博士生)

您查看的内容可能不完整,部分内容和推荐被拦截!请对本站关闭广告拦截和阅读模式,或使用自带浏览器后恢复正常。