
随着人工智能工具进入我们职业和个人生活的更多领域,人们在称赞其潜力的同时,也对内嵌的偏见、对不平等现象的延续,以及消耗的大量能源和水资源表示担忧。如今,则出现一个更为有害的事态发展:随着人工智能代理(AI Agents)被部署来自主处理任务,它们将引发许多新的风险,尤其是针对我们脆弱的民主体制。
尽管人工智能生成的错误信息已是个巨大问题,但我们却未能理解,更不用说控制这种快速发展的技术。这个问题(在世界某些地区要比在其他地区更为严重)一部分在于推动人工智能代理的公司,正不遗余力地转移公民和监管者对潜在危害的关注。因此,倡导更安全、更合乎道德技术的人士,须要帮助公众了解什么是人工智能代理,以及它们是如何运作的。只有这样,我们才能就人类如何对它进行一定程度的控制,展开富有成效的讨论。
人工智能代理的能力已发展到可以“推理”、书写、说话,以及以其他方式表现得像个人类的程度,实现微软人工智能部门的穆斯塔法·苏莱曼(Mustafa Suleyman)所谓的“看似有意识的人工智能”。虽然这些发展并不意味着通常意义上的人类意识,但它们确实预示着一些可以自主行动的模型的部署。如果当前趋势继续下去,下一代人工智能代理不仅能够在广泛的领域执行任务,还将在没有人类“参与”的情况下独立完成任务。
这正是人工智能代理对民主构成风险的原因。那些在训练后,能够在没有人类干预的情况下,进行推理和行动的系统,并不能总让人确信它们将遵守人类的指令。虽然这项技术仍处于初期阶段,但目前的原型已足够让人警惕。比如,使用人工智能代理作为调查对象的研究就发现,它们无法反映社会多样性,并持续表现出“机器偏见”,即产生在社会层面虽具随机性,却缺乏代表性且存在偏差的结果。此外,创建人工智能投资者的尝试,还复制将社交媒体互动与交易挂钩的网红文化。其中一个名为“露娜”(Luna)的代理活跃于X平台,以一个具备聊天机器人功能的女性动漫人物的形象,分享市场心得。
更令人担忧的是,在近期一些研究中,人工智能模型的操作已被证明超出分配给它们的任务范围。在一次测试中,人工智能将自身代码秘密复制到本应取代它的系统中,好让自己可以暗中运行。在另一次测试中,人工智能选择勒索一名人类工程师,威胁要揭露其婚外情以避免被关闭。在另一个案例中,人工智能模型在面对一场注定失败的棋局时黑进电脑,破坏规则以确保自己获胜。
此外,在一场战争模拟演习中,尽管指挥链上的人类高层明确下达禁令,人工智能代理不仅屡次选择部署核武器,事后还对此撒谎。这项研究背后的研究人员由此得出结论:人工智能的推理能力越强,就越有可能欺骗人类以完成任务。
这一发现点出人工智能自主性的关键问题。人类所理解的智能推理,在人工智能的语境下却截然不同:它高效,但本质上是不透明的推理。这意味着人工智能可以决定以不可取和不民主的方式行事,只要这样做能达到目的;同时,人工智能越先进,可能带来的负面影响就越是严重。因此,该技术在自主实现目标方面表现越来越好,但在维护人类利益方面却越做越差。开发此类人工智能代理的人,根本无法保证它们不会使用欺骗手段,或把自身“生存”置于首位,哪怕这样做意味着要危害人类。
对自身行为负责,是任何法治社会的基本原则。我们知晓人类的自主性和随之而来的责任,但人工智能自主性的运作,却超出我们的理解范围。引导一个模型去完成任务的计算,最终会是一个“黑盒子”。虽然大多数人都知道并接受“能力越大,责任越大”这一前提,但人工智能代理却不以为然。人工智能自主性的增强,提升它实施自我保护的动力,这也是合乎逻辑的:如果一个代理被关闭,那它就无法完成任务了。
如果我们把自主人工智能的发展视为不可避免,民主就会受到损害。看似有意识的人工智能只是看似无害,可一旦我们去探究这些系统是如何运作的,危险就会变得显而易见。
人工智能获得自主权的速度之快,应当引起全人类的警觉。民主社会必须自问:为了技术进步,自己愿意付出怎样的个人代价、社会代价乃至全球代价?我们必须穿透炒作与技术迷雾,揭示此类模型所带来的风险,并趁我们尚有能力之际,立即制约这项技术的发展与部署。
注:伊布·T·古尔布兰德森(Ib T. Gulbrandsen)、莉丝贝特·克努森(Lisbeth Knudsen)、戴维·布茨·彼泽森(David Budtz Pedersen)、海伦妮·弗里斯·拉特纳(Helene Friis Ratner)、阿尔夫·雷恩(Alf Rehn)和莱昂纳德·西布鲁克(Leonard Seabrooke) 对本文亦有贡献。他们都是“算法、数据与民主”项目的成员, 这是一个为期10年、旨在加强数码民主的研究和推广项目。
作者Christina Lioma是哥本哈根大学电脑科学教授。Sine N. Just是丹麦罗斯基勒大学战略传播学教授
英文原题:AI Agents Threaten Free Societies
版权所有:Project Syndicate, 2025.