习近平主席指出:“人工智能是新一轮科技革命和产业变革的重要驱动力量,将对全球经济社会发展和人类文明进步产生深远影响。”[1]近年来,以大模型为代表的生成式人工智能(Generative Artificial Intelligence)快速而广泛地应用,正在极大地重塑人们的工作、学习和生活方式与社会形态。就个体或组织而言,如何及时、有效地应对这一前所未有的时代变革,已经成为亟须正视和求解的重大现实问题。在此,笔者将着重探究人类智能体(Human Agent)与人工智能体(AI Agent)共生的背景下,个体或组织该如何在认知上积极地调整和适应,以期更为有利地生存和发展。
行动导向的适应策略
人们通过认知获取和运用信息与知识,对可能发生的情况、后果等作出预测和评估,亦是为有效地展开行动或成功行动。因此,当我们需要在两类智能体共生和互动的情况下调整或改变自身的认知方式和决策过程,就应该以行动为导向。这里,我们需要考虑行动的合理性问题。在理性行动中,采用何种认知方式(或过程)取决于行动主体从所选方式中可能的获益和运用这些方式的付出。也就是说,在目标设定的情况下,只有当获益与付出之间达到最佳平衡时,认知方式的效用才是最大的。在日常行动中,如果运用我们自然的或习惯的认知方式就能成功地达到目标,那么相应的行动便是合理的;倘若换作其他获益相同而付出更多的人工认知方式,反而显得不那么合理。
落实到当下两类智能体共生的场景,上述问题就转化为:在什么条件下,人们运用人工智能体来获取或生成信息、展开预测和决策是合理的?我们发现,存在运用人工智能体于行动的三种不同情形。第一种情形是在日常行动(包括日常生活和许多日常工作)中,行动主体通常为个体,且绝大多数目标只需其运用经验常识便可容易、高效地实现,换句话说,如果问题简单且只需少量的信息和付出(如时间和资源)就可以达到行动的成功,那么,就无需人工智能体的参与和协助,否则便是不合理的。比如,如果人类个体要出行,但行程简单、明确,也就不需要运用人工智能助手来制定出行计划。第二种情形是在许多智力性的工作中,行动主体既可以是人类智能体,也可以是由人类智能体与人工智能体组成的混合智能体,而为设定或者实现行动的目标,混合智能体的效率更高或付出更少,则对于人类而言,选择人类智能体与人工智能体的协同就是合理的。如当翻译文章时,如果当下的目标是获得一个有质量保证的译本,而人工智能体(翻译器)的参与可以做到准确率更高且付出时间更少,那么,由两类智能体协同来完成任务便是合理的。第三种情形是如果为达到设定的目标,只运用人工智能体效率更高,或者只能运用人工智能体方可实现目标,那么,依靠人工智能体单独来完成任务便是人类理性的选择。比如,为了更准确及时地进行天气预报,通过经验测试,一个基于机器学习的生成模型(人工智能体)能更好地实现这一目标,那么,由其来执行预报任务便是合理的。
就认知适应而言,以上所考虑的是一种元认知上的适应策略,即在人工智能体介入之前,就需要对何种情况下值得运用人工智能体来完成认知任务作出判断和选择,而作出这样的判断和选择又以是否符合行动的合理性为准则。随着各类人工智能体逐渐介入人类社会的方方面面,尤其是介入那些以加工符号为特征的智力性活动,这种元认知能力的获得和提升显得尤为重要。这是因为那些能作出合理的判断和选择的积极适应者,可以在遇到前述的新情况和新挑战时取得主动权与保持自主性,从而在工作和学习中更加得心应手;而如果一味地拒绝或过度地依赖人工智能体,则可能成为不适应者或消极的适应者,结果被时代所淘汰。
接下来,我们来分析上述后两种情形中的认知适应问题。随着人工智能体的普及,作为自然智能体的人类与人工智能体的协作和互动必将成为人们工作和学习的一种常态。一旦选择这种两类智能体协作的适应方式,就自然会产生认知资源如何分配的问题:在一项达到具体目标的工作和学习中,作为掌控者的人类智能体,应该将哪些认知任务交给人工智能体,哪些留给自己?显然,求解这一认知分配问题涉及多种因素,包括需要实现的目标、可用的资源和智能体的能力,等等。一般性的原则应该是让人工智能体做其擅长的事,比如,从大数据中挖掘模式和程序性的计算,而人类智能体要做的是提出好的问题和对人工智能体生成的结果进行客观、恰当的评估。就人类而言,在两类智能体互动的情况下,人类自身原本拥有的一些能力或技能(如记忆力、注意力和处理信息的技能)均有可能下降或退化;而与此相对照,能够提出可行目标和好问题的创造力,以及批判性思维的能力显得更为重要。正因如此,近年来出现大量关于培养和提升这些能力的呼吁,特别是在教育领域。不过,这里容易产生一个误解,即认为日后可将获取、处理和贮存知识的任务交给人工智能体,而留给人类自身的便是创造性和批判性思维,故需要加强对这些能力的培养。可事实上,不管是设定可行目标,还是提出好问题和作批判性的分析,都是在系统和丰富的知识背景下方能展开,否则,便很容易落入虚幻状态或滑向无果的怀疑论。所以说,在这种情形下,虽然一些搜集、记忆和信息处理的功能可以让渡给人工智能体,但并不表明人类可以减少对知识尤其是系统性的科学知识的学习。
在第三种情形中,存在一个将导致人类社会中个体和社会结构发生巨大变化的新趋势。如果一项工作或者某个职业只需人工智能体来实现,那么,选择它们来替代人类智能体是合理的。这里“只需人工智能体来实现”意味着其将在功能上不仅能完成人类作为智能体所作之事,而且可以完成得更好且付出更少。比如,当使用人工智能体可以实现汽车驾驶而成本更低且更安全时,则将其作为“驾驶员”的选择就是合理的。不得不承认,随着人工智能的不断发展,人类所从事的一些职业和岗位可能由人工智能体来替代。值得注意的是,人工智能体所取代的是人作为智能体的角色,其并非取代人。正如上文所提及,人工智能体的广泛应用,极有可能导致社会中所能提供的角色或人在其中担当的角色发生改变。而对于个体来说,要做到认知适应,就需要重新学习、不断学习,从而跟上时代快速发展的步伐。从另一个角度看,一旦越来越多的人工智能体协助或替代人的工作,也就意味着将人类从耗费大量时间和精力的生产劳动中解放出来成为可能,从而有条件和能力去实现或提升人类独有的价值。
(本文系国家哲学社会科学基金重点项目“人工智能驱动科学的哲学基础研究”的阶段性成果,项目编号:23AZX020)
注释
[1]《习近平向2024世界智能产业博览会致贺信》,2024年6月21日,http://jhsjk.people.cn/article/40261151。
[2]K. M. He, "Introduction: Deep Generative Models," 2024, https://mit-6s978.github.io/assets/pdfs/lec1_intro.pdf.
[3]C. Massimo et al., "The Case for Human–AI Interaction as System 0 Thinking," Nature Human Behaviour, 2024.
[4]J. Goergen; E. de Bellis and AK. Klesse, "AI Assessment Changes Human Behavior," PNAS, 2025(25).
责 编∕肖晗题 美 编∕周群英














