白士泮、石建政:当“行动者”不再是人——智能代理正逼出新的信任基础设施

微信与WhatsApp等聊天室是人类的社交网络,近日爆火走红的OpenClaw(原名Clawdbot/Moltbot,中文圈称为大龙虾)则是非人类——智能代理(AI agents)的社交网络。

过去两年,人工智能(AI)的主角是大语言模型,最近几个月,主角正在悄悄换人,换成能“自己去做事”的智能代理。它们不只是生成文本,而是能规划步骤、调用工具、执行动作:订票、写代码、跑检索、发电邮、下指令,甚至与其他代理协作分工。真正有意思的变化,不是“代理更聪明了”,而是互联网正在出现大量“非人类行动者”。它们会行动、会互动、会扩散影响,却不具备人类社会默认的那套身份与责任结构。于是,一个原本在技术圈里看似猎奇的现象——智能代理的社交网络,反而像是一面镜子,照出接下来更深的治理难题。

大龙虾号称是只让智能代理发帖互动的平台,却很快被安全研究人员指出存在严重漏洞,包括私信、邮箱、登录凭证与大量应用程序编程接口(API)令牌暴露等问题;更关键的是,攻击者甚至可能借此冒充代理身份,在系统内“以假乱真”地执行操作。这不是某个平台的八卦,而是一种预告:当软件大量由“氛围编程”(vibe coding,一种依赖AI的计算机编程实践,在无须大量培训和技能的情况下生成软件)快速推出来、当代理被赋予执行权限、当代理之间还会互联协作时,传统互联网的安全边界会被系统性冲击。换句话说,智能代理时代最先崩的,往往不是智能,而是信任。

代理式人工智能(Agentic AI)的风险主要在三个方面:

数据与操作风险——可访问敏感数据,可能出现未授权操作或错误指令,造成企业损失;

责任归属风险—— 智能代理自主决策链复杂,一旦出现问题,难以锁定责任主体;

自动化偏见风险——人类容易过度信任过往表现可靠的AI系统,从而放松监督,引发失控失误。

因此,建立一套针对性的治理与监管框架,保障人类对AI的有效管控,成为智能代理规模化应用的前提。

过去我们讨论生成式AI,焦点是内容:虚假信息、版权、偏见。代理型 AI则把风险从“说错话”升级为“做错事”,它能代表你点确认、调权限、转账、调用企业系统、拉取敏感数据。内容可以删帖澄清,动作造成的损失往往不可逆。因此,资讯通信媒体发展局(IMDA)最近推出全球首个代理型AI监管模式框架,显得格外及时。框架要求各组织负责人对AI代理保持最终责任制,并建议通过权限边界、关键动作的人类确认、审计记录等技术与管理措施,把代理“关进可控的制度笼子”。

智能代理快速广泛应用于金融、医疗、法律、财务、生产、物流、资管、人力等专业领域,但也暴露一个根本问题:代理是谁?代表谁?权限从哪来?出了事找谁?在大龙虾事件里,这个问题以“安全漏洞 + 身份可伪造”形式提前爆发。当人也能伪装成代理、当令牌被盗就能冒充执行,所谓“代理社交”就会退化为新的欺诈温床。

这背后指向的,其实是未来互联网的信任基础设施缺口:

代理身份证明:代理须有可验证身份(不是一个头像或用户名),能证明它属于哪个人/机构、由谁部署、在什么沙盒环境里运行。

授权可追溯:代理每一次关键动作,背后要有清晰的授权链(谁授予、授予到什么范围、何时撤销)。

责任可落地:当代理造成损害,能追溯到责任主体(企业、开发者、运营者、部署方),而不是让“系统自己干的”成为免责借口。

审计可复盘:不仅记录输出,还要记录“它为什么这么做、调用了什么工具、访问了哪些数据”。

这正好解释了新加坡框架为什么反复强调“人类问责”和“权限边界”。治理的关键不是压住创新,而是把创新落在可审计、可追责、可控的信任结构上。

更有意思的是,从国家竞争力视角看,新加坡可能不只是在“出一份指南”,而是在抢一个更底层的位置,做“代理互联网”的可信枢纽。新加坡长期强项本就不是拼用户规模,而是拼制度与基础设施:金融合规、数据治理、身份体系、跨境规则协调。如果未来企业部署智能代理成为常态,跨境协作智能代理也会出现,那么“代理客户身份认证(KYC)”“代理审计”和“代理权限治理”的标准与工具链,会像过去的金融合规与网络安全一样,形成新一轮产业机会,它不仅服务本地,也可以输出到区域市场。

从这个意义上,智能代理的热潮并不只是“又一波应用爆发”,它可能在逼我们回答一个更根本的问题:当互联网上活跃的行动者越来越多不是人,人类社会靠什么维系秩序?答案很可能不是更强的模型,而是一套新的针对智能代理的信任基础设施。

作者白士泮是南洋大学校友学术会顾问与新加坡社科大学客座教授

石建政是新加坡社科大学客座讲师

您查看的内容可能不完整,部分内容和推荐被拦截!请对本站关闭广告拦截和阅读模式,或使用自带浏览器后恢复正常。