黄龙翔:元任务觉察──人与AI“共舞探戈”

2月2日,《联合早报·言论》版刊登两篇探讨人工智能(AI)学习的评论:刘家明的《学问——最重要学会提问》与汪来昇的《知识泛滥时代的判断难题》(下称刘文和汪文);前者主张善问问题,后者提醒别因用了AI就自以为是专家。

拙文《从防堵AI到深拥AI——学习评价的新范式》(2025年12月29日《言论》版),提出元认知觉察(Meta-Task Awareness,简称MTA)框架,正可用以回应两文所揭示的挑战。这个框架可用“三层功力”来拆解――前提示语、提示语,和后提示语层次。

刘文所论述的问对问题、问出好问题,是教育学界在30年前就提出的21世纪学习能力要件,可锚定学习切入点和深度,而今在生成式AI时代越显重要。比如,你问AI“贾宝玉是个怎样的人?”或“贾宝玉的命运是家世注定还是性格决定?”AI给你的答案,思想深度会差很大。

可是,在MTA视角下,那只是第一层功力――前提示语层次。人依赖AI,把AI当权威教师或答题机器,不等于学会思考问题。刘文因而也指出,人面对AI的答案,仍须自己查证和判断。这是第一层功力的较高层次――但还未晋入第二层功力。

联合国教科文组织发布的《学生AI能力框架》明确强调:在AI导入教育的大方向中,维持人类自主性(human agency)是关键目标。AI教育的大战略,确实是该引导学生认识AI、使用它并和它共同学习;要掌握AI,同时超越它,而非反过来被它掌控。不过,“超越”AI还不是终点。

近日我在所教的科技教学应用的课堂上,先让学生分享他们使用AI的经验。三名学生自豪地说:“我已经‘驯服’了AI!”这就是第二层功力(提示语层次):能按己意精确下指令,迭代优化生成,甚至让AI模仿个人风格。我回应:“这门课的最后,你们会学到比‘驯服’更高一层的技能。”

汪文的提醒跟第三层功力(后提示语层次)不谋而合。警惕生成式AI让许多人产生“我也是专家”的错觉,是第二层功力的“长期发功者”的可能心态。MTA可防止这种错位。

MTA没要人跟AI斗智,而是比AI更清醒,要求人在任务中持续觉察。我曾向初级学院学生发表演讲,列出MTA的五点“自检清单”:开始使用AI前,是否清楚为何用AI、要达到什么目的?当AI提出新点子时,能否判断,要不要修改、优化目标或任务,并确保AI能与新目标、任务对齐?是否懂得在跟AI共学、共事的过程中,何时引导AI,何时放手让AI引导自己?是否能判断AI真的帮助你的思考,而不只是让产出“更好看“而已?每次互动后,是否懂能反思而优化提问、指示技巧,下次让AI更好?

这个自检清单,让培养MTA思维和技巧,变得可操作。MTA互动的一大特征,是目标和任务可动态调整;人对于自己与AI的专业界线,也会有更大的觉察,所以不会一面倒地“依赖AI”或“掌控AI”。当AI展现计算力,我提供语境判断;当AI提供模式识别,我决定取舍方向。

1月22日,新加坡推出全球首个由政府主导的代理式AI(又译智能体)监管模式框架,协助企业和机构采取措施降低应用风险,并确保AI的运作最终必须由人来负责。框架围绕四大重点:预先评估与界定风险;确保人类对智能体承担实质责任;在智能体的全生命周期中实施技术管控与流程管理;以及通过透明化处理及教育培训,增强终端用户的责任意识。

MTA正是提供这个框架在个人实践层面的具体操作或培训原则,帮助人类判断,任务是否仍然“由人开始,由人结束”。当AI的行动路径越来越复杂,人若缺乏MTA,就容易让思考被系统“吞没”;具备MTA的人,则能适时插手,重新定义问题或任务的边界与意义。

MTA让人与AI互动,如同齐跳一支探戈舞。探戈并非由单一领舞者完全掌控,双方都须不断读懂对方的节奏,及判断何时引导、何时跟随;不是机械的命令执行,而是节奏与感知的共鸣。探戈若失去平衡,舞者可能互相绊倒。人与AI的关系,不是服从或抗衡,而应是默契十足的搭档。

作者是南洋理工大学国立教育学院高级教育研究科学家

您查看的内容可能不完整,部分内容和推荐被拦截!请对本站关闭广告拦截和阅读模式,或使用自带浏览器后恢复正常。