
这几天,“AI蒸馏”与“.skill”( AI装配的“专业技能包”)突然在网络刷屏。从“同事.skill”到“名人.skill”,人类的知识、表达方式甚至思维逻辑,被压缩为可调用的AI技能包。这一看似提高效率的技术创新,正悄然跨越一条更深的界线:人工智能(AI)不再只是学习人类,而开始“复刻人类” 。
从技术角度看,当前的讨论混淆两个本质不同的概念。
AI蒸馏原本是一种模型压缩技术,核心是将复杂大模型的能力转移到更轻量的系统中,本质上是对“能力”的提取,也显著提高计算效率并降低成本。
“.skill”则更进一步,它可以提取个人的邮件文档、聊天记录、工作流程和决策逻辑等职场数据作为素材,还试图模拟语气、风格乃至人格特征,使AI形成智能体,看起来“像某个人”。这种把一个人的思想和风格“提炼”成AI程序的做法,被不少人称为人格蒸馏,也被叫作赛博(cyber)复活。用户只要向AI智能体提问,它就会用被复刻者的风格来回答,看上去就和真人对话一样。这样在网络世界里持续互动的虚拟形象,就是所谓的赛博数码人生。
前者是工具,后者则更接近“数码分身”。这种转变,使AI从生产力工具演变为“人格代理”。当一个.skill软件可以模仿同事回复邮件、模拟老板决策,甚至以某位公众人物的语气提供建议,问题已不再只是技术提升,而是“谁在说话”的根本性疑问。
“.skill”为何迅速走红?背后有三重推动力。
其一,门槛极低。无须复杂算法,只要整理公开资料、聊天记录或工作文档,普通用户也可以“构建一个人”。
其二,效率诱因强烈。在企业降本增效的压力下,将标准化工作交由AI“数码分身”完成,具有直接吸引力。
其三,情感与猎奇驱动。从“复刻同事”到“赛博重现名人”,这种技术天然具有传播性。然而,技术的扩散速度,远快于社会对其边界的理解。过去围绕AI的法律争议,多集中在数据是否可用、版权是否侵权。但“.skill”带来的问题更为复杂,它不只是使用数据,而是对人格特征的重建与占用。
当一个人的表达风格、思维路径被系统性提取并重组,即使没有逐字复制,也可能在实质上构成对其人格与创作的侵蚀。从人格权角度看,姓名、声音与形象早已受到法律保护,但表达风格与思维方式的边界仍较模糊。“.skill”正是将这些原本难以界定的元素,转化为可复制、可传播的数码资产,使既有法律框架面临挑战。
从知识产权角度看,大规模提取文章、演讲与语录进行训练,也可能触及复制权与信息网络传播权的边界。更关键的是,一旦AI输出偏离原意,甚至产生误导性内容,责任应由谁承担,仍缺乏清晰答案。
在职场场景中,这些问题更加现实。如果企业或同事未经同意,将员工的沟通风格、工作方法整理成“.skill”,不仅可能侵犯个人信息与人格权益,还可能涉及商业秘密与劳动关系的界定。当“员工分身”可以替代部分工作时,传统的劳动力与责任体系也将受到冲击。
从新加坡视角来看,这一趋势尤为值得警惕。新加坡一直强调在推动AI发展的同时,建立良好的治理基础。无论是新加坡全国人工智能核心(AI Singapore)推动产业应用,还是资讯通信媒体发展局(IMDA)发布AI治理框架,核心都在于确保技术发展与社会信任之间的平衡。但“.skill”现象提出新的问题:当AI不再只是分析数据,而是模拟具体个体,现有的治理框架是否足够?是否须要进一步明确“数码人格”的权利边界?技术平台在开放创新与风险防范之间,应承担何种责任?这些都可能成为下一阶段监管讨论的重点。
可以预见,AI蒸馏与数码分身技术仍将继续发展,它们确实有助于知识传播与效率提升,但也可能在无形中侵蚀个体的独特性。一个社会如果默认“任何人都可以被复制”,那么信任、责任乃至专业价值的基础,都将被重新定义。技术可以蒸馏知识,却不应掠夺人格。如何在创新与伦理边界之间取得平衡,将决定AI时代的制度质量。真正必须守住的,不只是数据与代码,而是“作为人的不可替代性”。
作者白士泮是南洋大学校友学术会顾问与新加坡社科大学客座教授
石建政是新加坡社科大学客座讲师与特许金融科技分析师