
金庸名著《笑傲江湖》的男主角令狐冲以独孤九剑独步天下,要诀是在对手出招瞬间即看清破绽而后发先至。只不过当他对上东方不败,却踢到武学天花板,因为东方不败太快了,他连招数都看不清。
如果令狐冲活在现实,被套上尖端人工智能(AI),不但眼力脑力翻倍,还装载对手所有武功家数,别人出招前他就能预判多处破绽,拟好还手绝招,再多的东方不败恐怕都能瞬间击毙。
其实给令狐冲一把枪就能杀死许多东方不败,但枪炮无眼,AI却能复制出一万个令狐冲,个个手操独孤九剑,剑剑后发先至。
把AI练到这般境界,正是全世界军事强国如火如荼追求的目标。它们要将AI套在已经很厉害,但还须人为操作判断的导弹和无人机等,翻倍复制人类智慧,将决断力自动化,突破人体和空间局限,夺人首级于千里之外。
这些年,各国静悄悄做,已在俄乌战场实际演练无人机如何从“一人一机”,升级成“AI协调无人机打击群”,也用AI分析数据,锁定靠人力绝对打不到的目标。
两军攻防不必真人对决难道不好吗?美伊战争第一天就给出答案。
美军开战首24小时就借用AI,快速打击伊朗1000多个军事目标,但伊朗南部却有一所女子学校被炸,168人惨死。一个揣测是AI使用的定位数据可能已过时,美军要炸学校附近的革命卫队据点,却误杀无辜。
即便是合法战争,“正义之师”错杀平民也可能犯下战争罪。因此,就算证据显示凶手是战斧导弹,美国总统特朗普仍一口咬定这是伊朗自己造成,因为“他们的攻击很不精准”。
惨剧发生,我们应当灵魂拷问:这究竟是人为疏失,还是AI误判?若是前者,须追究个人和集体责任且避免重犯;若是后者,更须深思如何为AI上战场划下红线,且不能怕多,须严谨精密。
对AI在战场出错的风险态度截然相反,正是特朗普与为美军提供核心AI模型的Anthropic闹翻的原因。聪明如Anthropic诸君尚且担忧AI会出错,更害怕错一回的后果比人类错10次惨痛,于是对特朗普划下红线:不准用于没有人类介入控制的自动化杀伤武器。
这等于扼杀军事AI最“好用”之处,干大事的特朗普哪愿自缚手脚,马上下令封杀Anthropic。世界正处乱局,不缺与特朗普心意相通的人,奥尔特曼的OpenAI和马斯克的xAI立刻就填补这个空缺。
奥尔特曼经常把AI伦理挂在嘴上,却是个机会主义者。他宣称会部署技术人员为AI的分析决策把关,但在争分夺秒的战场,效果有待观察。
马斯克的AI嵌入美军后会是什么光景,同样值得观望。他自诩旗下AI是唯一的非觉醒主义(Non-Woke)者,绝不为了政治正确闪烁其词。简言之,就是没有道德包袱,绝对中立实事求是。
令狐冲若被马斯克附身,卸下道德包袱会如何影响小说情节?谷歌AI推敲,他会毫不犹豫杀死有恩于他,却为了称霸江湖而处处陷害他的师傅、伪君子岳不群;不过原先跟他有龃龉或暂时摸不清敌我,后来却成莫逆的恒山派女尼、莫大先生和冲虚道长,恐怕也会惨死在他剑下。
按历史规律,列强被美军在伊朗战争展示的科技震慑,必然更会快马加鞭迎头追赶。因此,若战争有幸快速完结,全世界更要汲取教训,思考须为AI上战场制定哪些红线,立即付诸实行。
(作者是《联合早报》国际新闻资深高级记者)