
你是否愿意让自己的聊天记录、朋友圈或公开动态被用于人工智能(AI)模型的训练?这是今年科技界最具争议性的话题。大模型要成长,必须“喂数据”,而最有价值的数据往往来自人类的真实互动——语言、情绪、偏好与思维。问题在于,技术进步的脚步会否跨过隐私保护的底线?
今年5月,Meta宣布将在欧盟地区重新启用脸书与Instagram用户的公开内容与互动数据,用于训练大型语言模型。这一举动立刻引发奥地利隐私组织noyb及多国消费者团体的强烈反对,认为Meta以“合法利益”为由,绕过用户同意机制,违反欧盟《通用数据保护条例》(GDPR)的“最小化”和“目的限制”原则。
德国科隆法院虽未颁布临时禁令,但事件迅速演变为跨域监管与企业创新的正面冲突:一方坚守“数据主权”,另一方强调“算法迭代”。随着Meta拒签欧盟《通用人工智能行为准则》(General-Purpose AI Code of Practice),这场博弈从隐私问题升级为全球AI治理模式之争。
欧盟的立场一以贯之——隐私优先。根据GDPR,企业若以“合法利益”为由处理数据,必须通过严格的平衡测试,并提供可验证的反对权(opt-out)机制。法国国家信息与自由委员会(CNIL)在2025年发布指南,要求企业在AI训练中避免抓取敏感数据、不得绕过robots协议(编按:指引软件应抓取哪些内容),并确保用户对训练用途“明知可拒”。换言之,合法并不意味着放任,创新必须受约束。
然而,这种高门槛监管也使欧洲的AI企业面临困境——合规成本高昂、创新周期冗长、数据流通受限。Meta事件暴露出一个现实:当法律框架滞后于技术演进,冲突便不可避免。
与欧盟的“硬法约束”不同,新加坡选择柔性治理路径。《个人资料保护法令》(PDPA)明确规定,公开可得的个人数据(如社交媒体公开贴文、论坛发言)不受“收集须同意”的限制,企业可直接用于模型训练。同时设立“业务改进豁免”和“研究豁免”,允许组织在合理安全前提下,将已收集的数据用于技术研发和算法优化。
此外,《2021年版权法令》引入“计算数据分析例外”(CDA),允许企业在合法取得、尊重版权声明的前提下,将公开作品用于AI训练。这为大模型研发提供制度化的“安全走廊”。
这套体系的核心,是信任与责任的双向约束:政府提供明确的合规框架,企业承担自我审计义务,公众则享有可追溯的权利保障。
无论是Meta的争议,还是欧盟与新加坡的差异,都指向同一命题:大模型的未来,取决于数据治理的社会契约。AI训练最棘手的往往不是非法数据,而是那些“灰色语料”——公开但未经明确授权、价值高又潜藏风险的内容。
欧盟选择“先立规后放行”,美国则更多依赖行业自律,而新加坡正在尝试以“小国灵活性”构建“区域示范”。这种做法不仅有助于吸引国际AI企业落地,也为亚细安地区提供“创新友好、风险可控”的范本。
Meta事件的余波仍在,但它已成为全球AI治理的分水岭。未来的关键,不在于谁拥有更多数据,而在于谁能更可信地使用数据。
新加坡的实践告诉我们:当规则透明、责任明晰、公众信任存在,创新与合规可以并行不悖。面对AI的未知边界,监管者、企业与社会都在同一场博弈中寻找答案——科技向前走的每一步,都必须照见人的价值。
作者是亚洲数字经济科学院院长