邱慧娟:人机协同进化 教育须先变革

父母和上班族越来越焦虑地问:如果人工智能(AI)已经能掌握我的孩子或我正在学习的内容,那我们学习的意义何在?

我本能的回应是安抚。人们常说,人类总能适应新技术——从计算器到计算机——AI也不例外。这大致没错,但也不够全面,且日益显得危险。

人类的适应,只有在教育体系进化得足够快,以支持这种适应时才会发生。若体系跟不上,技术非但不会提升人的潜能,反而会暴露缺陷、加深不平等,使人在恰恰错误的层面上与机器竞争。

这才是AI带来的真正挑战。不仅在于机器能力越来越强,更在于我们是否在为人类做好准备,去做出在AI遍布的世界里依然有价值的贡献。

纵观历史,工具不断改变“智能”的内涵。计算器将重点从算术转向问题解决;搜索引擎降低对记忆的需求,提升诠释的价值;文字本身则改变记忆的方式。

心理学家列夫·维戈茨基(Lev Vygotsky)认为,学习发生在“最近发展区”——即人们通过引导、社会互动和文化工具得以成长的空间。如今,AI正作为这样一种工具,拓展学习者在支持下所能达成的目标。

但它无法取代赋予学习深度和意义的人类指导、判断和社会情境。

人类学从文明的角度讲述同样的故事。工具的每次重大进步,都推动人类将技能重组升级。文字将记忆从大脑移至纸面,促进抽象与复杂推理;工业革命自动化体力劳动,扩展管理、创意和关系型工作;计算机自动化计算,使人得以专注于战略和系统思维。每一代工具——从石斧到蒸汽机再到计算机——都重塑人类认知。新工具并未使我们变弱;它们通过为创造力、同理心、想象力和判断力腾出认知空间,使我们更加人性化。

但这种协同进化绝非自动发生。它取决于社会如何围绕新能力,重新设计学习、工作和责任。成功受益的是那些相应调整制度的社会;未能调整者,则使许多人落后。

AI急剧加速这一动态。大型语言模型已能总结信息、生成代码、产出流畅文本。危险不在于人类将变得过时,而在于我们可能训练人们去与机器竞争它最擅长的任务——而不是让他们去做机器无法完成的工作。

当前对AI的应对,多聚焦于技能培训:编码、提示工程或工具使用熟练度。这些固然重要,但仅此而已,远远不够。知道如何使用AI,不等于知道何时使用、为何信任或如何评判输出。这些并非技术问题,而是人的问题。

在不确定下的判断力、伦理推理、社会理解,以及解读复杂模糊情境的能力,正变得更为重要,而非更不重要。然而,这些能力常被视作“软技能”或次要,而非AI丰富世界中的核心素养。

颇具讽刺意味的是,随着AI接管更多常规认知任务,工作中独属人类的维度变得更难,而非更容易。

数据科学家正成为意义构建者:AI检测模式,人类则决定哪些问题重要,以及答案对社会意味着什么。工程师正成为战略决策者:AI能写代码,人类则决定构建什么、人们将如何使用以及可能出什么问题。人力资源官正成为文化塑造者:AI能筛选与优化流程,人类则打造公平、可信的职场。教师正成为思维设计者:AI能生成内容,教育者帮助学生质疑、批判和应用知识。

将思考委托给机器,而不加强人类的意义构建能力,将可能导致依赖,而非增强。

如果人类的适应不是自动的,就必须有意识地进行设计。这就需要第二代关于AI的思考,或可称为“为人类智能而设计AI”,它变得必要。

我们从一个简单前提开始:协同进化不会偶然发生,它须要对教育和工作进行有意识的重构,而不仅是拥有更好的工具。它提出不同的问题:人类应保留何种思维方式?机器应引领何处——而何处必须由人类承担责任?当AI能即时生成答案时,我们如何评估学习?

我们须要重新思考课程、评估和专业发展,使AI增强而非取代人类判断。技术素养必须与社会科学、伦理和批判性推理相结合。将二者割裂的课程,培养出的毕业生可能工具娴熟但判断力薄弱。若将AI视为“附加”科目,则错失当下正在发生的深层变革。

取而代之的,是将AI素养与社会科学、伦理和批判性推理相融合,目的不是使机器更人性化,而是强化人类自身。我们有理由保持乐观,人类智能始终与工具共同进化。AI能将人从常规认知中解放出来,将工作提升至创造力、领导力和意义追寻的层面。但这个结果是有条件的,它取决于我们是否愿意足够快地重新设计学习方式,以及将何种能力视为智能。

“人类总能适应”这一令人宽慰的信念,不应使我们自满。适应并非宿命,它是一种选择,由制度、激励和勇气塑造。

工作的未来不会由AI能做什么来定义。它将由我们的教育体系是否有足够勇气与之共同进化来定义,也取决于我们是否准备好让下一代不仅会使用智能机器,更能始终保持智能的人类本色。

作者是新加坡科技设计大学观音堂佛祖庙讲座教授、心理学教授、人文、艺术与社会科学学部院长,设计与人工智能专业主任

您查看的内容可能不完整,部分内容和推荐被拦截!请对本站关闭广告拦截和阅读模式,或使用自带浏览器后恢复正常。