
人与人工智能(AI)之间的差距有多大?在AI深入生活与工作的今天,这个问题看似空泛,实则非常现实。因为只有先弄清人和机器究竟差在哪里,才能判断AI将如何改变社会;也才能在须要责任归属的场景里,分辨哪些判断来自人,哪些结论来自模型,哪些是人与模型共同完成的产物。
社会面对新技术时,态度往往不是理性的直线,而是情绪的钟摆:一边沉迷效率,一边恐惧失控。最危险的时候,往往不是技术最强的时候,而是人们对它一知半解的时候。因为此时技术已足以改变现实,制度却还没学会如何约束它,公众也尚未准备好如何理解它。于是,盲目乐观和本能恐惧常常同时存在,并且同样有害。
历史上,这样的教训并不少见。技术一旦高速扩散,却缺乏约束与缓冲机制,失控往往来得比人们想象中更快。2010年美国股市闪电崩盘就是典型一例:短短几分钟内,主要股指急挫,市场巨幅震荡,随后又迅速反弹。事后调查显示,导火索是自动化交易指令、高频交易策略与脆弱市场结构叠加后的连锁放大。真正令人不安的,不是机器会出错,而是当技术被接入关键系统、运行速度远超人工反应,而规则设计又未及时跟上时,局部失误完全可能迅速演变成系统性混乱。
但另一面同样值得警惕:如果因为恐惧而过度压制新技术,也可能让社会付出迟滞发展的代价。19世纪英国《机车法》要求机动车前方必须有人步行持红旗示警,并严限车速;直到1896年,新法才废除这套极端限制。讽刺的是,一个本应率先拥抱工业创新的国家,反而一度用保守规制替自己套上枷锁。技术当然要管,但若治理只剩压制,最后保住的往往不是秩序,而是旧利益。
我在日常工作中,主要帮助不同规模的投资基金自动化筛选流程。从中观察到,当AI接入越来越多工作流时,不确定性反而成为决策中的最大风险。锚定一个“唯一数据源”,不仅能减少模型幻觉,也能让最终产出更加稳定可信。
最近就有客户对AI初筛结果提出异议。幸好,在自动化流程之外,我们有一套平行且独立保存的原始数据源,人工复核才有了可靠依据。反过来说,如果一开始没有锚定这个“唯一数据源”,后续哪怕再引入人工判断,也很难完全摆脱模型初筛对结论的预先塑形。所谓“人来兜底”,很多时候并没有想象中那么简单,因为人的判断往往早已被模型第一轮输出悄悄带偏。
这也正是人与AI真正的差别所在。差别并不只在谁知道得更多、算得更快、写得更顺,那些都只是表层优势。更深的差别在于,人要承担责任,要理解后果,要在模糊、冲突甚至无解的处境里作判断。AI也许越来越像人,但“像”不等于“是”,会说也不是会负责。
不可否认,今天的AI在许多狭义任务上已明显超过普通人的知识处理与分析速度,而且这个差距还在扩大。瑞典哲学家尼克·博斯特罗姆在2014年出版的《超级智能》中就曾预言,人类与AI之间的差距未来可能会大到难以想象,如同人和蚂蚁一般。若真有那么一天,人类该如何与AI相处,恐怕仍要从先看清两者究竟差在哪里开始。
(作者是金融科技从业者)