
2024年初,香港一家跨国企业的财务职员参加了一场视频会议。屏幕里的“首席财务官”神情严肃,要求紧急转账,其他高管一一附议。职员按指示在数日内完成多次汇款,约2亿港元(约3300万新元)资金就此消失。事后查明:那场会议除了那名职员,没有一个真人,所有面孔都是人工智能(AI)深度伪造的影像。
这不是科幻小说情节,而是已被香港警方公开证实的案例。
它留下一个至今无人能清楚回答的问题:这笔钱,应该由谁来赔?AI工具开发商?骗徒?还是那位相信了自己眼睛的职员?如果同样事情发生在新加坡,我们的法律能否给受害者一个交代?答案令人不安。
或许你会觉得,深度伪造诈骗离自己太远。但AI已在更日常、更隐秘的方式里影响着每一个普通人的命运:银行的AI系统拒绝你的贷款申请,却不告诉你原因;医院的AI辅助诊断建议错误的治疗方案,你的病情因此延误;招聘平台的AI筛选算法悄悄过滤掉你的简历,你甚至不知道自己曾被看见过。这些都有可能发生。
新加坡在AI治理上已有一些软性指引。资讯通信媒体发展局发布的AI治理框架、金融管理局针对金融业的公平、道德、问责和透明度(FEAT)原则、全国人工智能战略2.0所推动的全民AI素养建设——这些在引导企业自律方面,已经积累不少值得肯定的经验基础。
但软法可以引导,却无法兜底。当你走进法庭,现实依然严峻:新加坡目前没有任何专门针对AI损害的法律条文。根据国际法律评级机构钱伯斯律师事务所(Chambers and Partners)2025年的报告,新加坡法院至今没有出现公开的因AI系统表现失常而索赔的案件。新加坡近年最显著、最明确提及AI的立法动作之一,是针对选举深伪与AI操纵内容的规范,而非一部专门保护普通民众免受AI伤害的综合性法律。
一场注定不公平的官司
普通人面对AI伤害时的处境,像一场注定不公平的官司,原因有三。第一,算法是黑箱。想象一个场景:你向银行申请房贷被拒,对方只回复“系统综合评估未达标”,但综合了什么、如何评分、能否申诉,全部成谜。新加坡管理大学的法学教授陈国耀在2025年一篇学术论文中指出:“AI模型将如何学习、适应,并生成建议与输出,对使用者而言未必完全透明且直观。因此,AI的不透明问题,使医院和医生难以评估与预测医疗AI在具体医疗情境中会如何作出反应。”当AI的决策过程不透明,伤害风险对任何人都无法预见时,追责便从根本上失去依据。
第二,责任无人认领。一套AI系统从诞生到部署,涉及数据采集方、算法训练方、系统集成方、终端使用方。出了事,每一环节都可以把责任推向下一个环节,形成一条没有终点的责任链——你最终追到的往往只是空气。
第三,欧盟曾提出《AI责任指令》草案,旨在通过证据披露义务与有限因果推定机制减轻受害者举证负担,但该提案已于2025年撤回,目前欧盟不存在统一的AI侵权举证推定制度。新加坡则主要依赖传统侵权法与产品责任框架处理AI相关损害,尚未建立针对AI系统的专门举证减负机制,因此受害者在证明缺陷与因果关系方面仍面临较高门槛。
全球各主要司法管辖区都意识到,AI追责不能再停留在“事后救济”层面。欧盟历经数年构建起全球首套AI综合监管法律《AI法令》,核心逻辑简单有力:越是影响普通人命运的AI应用,要求越严格。凡被列为“高风险AI”的系统(如招聘、信贷、医疗等)必须保存完整的决策记录、接受人工审核,并向受影响的当事人提供解释。
在英国,自动驾驶领域建立了以保险为核心的责任机制:当自动驾驶系统处于运行状态时发生事故,受害者通常由保险方直接赔付,再由保险体系向相关责任方追偿,从而减少受害者在技术归责上的举证负担。
武汉无人车事件震动全球
今年3月31日傍晚,武汉街头发生一件震动全球自动驾驶业界的事。约200辆百度旗下“萝卜快跑”出租车几乎同时停下,导致多起追尾事故,乘客被困车中长达两小时。事后调查指向一个再普通不过的原因:一道由工程师下达的“停车并采集数据”系统指令,在未充分验证的情况下被推送到所有车辆。
4月底,中国宣布暂停发放新的自动驾驶车辆许可,并要求八家头部企业进行“全面自查”。事件揭示的真正问题在于:当AI系统的故障是“集体性、瞬时性”的,传统的事后追责框架根本不够用。中国选择用“暂停发证”这种行政手段先冻结风险,非长久之计,真正答案仍要回到法律层面。
新加坡的自动驾驶部署已进入新阶段。榜鹅自驾接驳车服务已于4月1日向公众开放试乘,约740名早期试乘者中,99%表明愿意推荐他人乘坐,每一名试乘者其实都已是这场立法的“间接当事人”。
5月4日,交通部启动自驾车立法咨询,目标是在2027年提交国会审议。咨询文件首次系统厘清了自驾生态中四类关键主体的责任划分——自驾车技术负责实体、车队运营方、车载安全员、远程监控员;同时覆盖车辆审批、牌照制度、严重违规处罚、测试与商业运营阶段的责任规则。
更值得注意的是一项具开创意义的提议:在自驾车事故中,技术负责实体应承担“先行赔付”责任——保险公司先全额赔付受害者,再向真正过错方追偿。这与英国“先赔后追”机制相呼应,把举证负担从普通受害者身上,转移到最掌握技术信息的一方。这是一个被国际经验反复验证的方向。
作为长期关注AI治理责任议题的科技从业者,笔者无法在这样的立法窗口前保持沉默。5月11日,笔者通过自驾车立法咨询平台正式提交书面反馈,提出五项具体建议:将上游AI基础模型供应商纳入受规制主体(以应对类似武汉事件中,工程师指令直接传到所有车辆的失控风险)、建立强制“决策日志标准”、为多车同时失灵设立“集体应急响应义务”等。
这场咨询的重要性远不止于自动驾驶。它正在为新加坡未来如何处理AI责任,定下范本。三件具体的事,特别值得期待。
一是“决策日志”的强制保存。咨询文件已提议要求自驾车运营方完整记录事故数据。这一原则若能延伸至医疗AI、金融AI、招聘AI等其他高风险场景,便能从源头消解举证困境——没有记录,就没有追责;没有追责,就没有公正。
二是普通人的“解释权”。想象一下:一位年长者在医院接受AI辅助诊断后被告知“高风险”,但没有人能说清依据的是哪些数据。解释权意味着这位年长者有权获得一份人类可以理解的说明——不是“系统显示”,而是“基于哪些判断”。这一权利在欧盟数据保护法规中早已确立,新加坡的《个人资料保护法》(PDPA)亦可循此方向作针对性修订。
三是保险机制常态化。自驾领域要求强制购买第三方责任险,是基于“举证困难时,受害者不能空手而归”的逻辑,也许有人会说这增加了创业成本,但我宁愿把它看成一笔“社会信任投资”:相较于AI损害引发公众信任崩溃的代价,一道强制准入门槛,其实是对整个行业最有效的保护。
武汉的无人车之所以能停摆而不至于失控,是因为都还在“自动驾驶”这一个领域内;但医疗、金融、法律领域的AI若集体失常,后果可能远比一次交通拥堵更难挽回。
一座城市可以跑得很快,但必须知道怎么刹车。AI出错的时刻,往往不是个别系统的偶发故障,而是系统级的瞬间失灵。今天,新加坡抓住一道窗口,把“怎么刹车”写进法律。为AI的错误建立追责机制,是让创新走得更远、更稳——这,才是真正的智慧城邦应有的样子。
作者是本地科技公司首席技术官