人类智能体与人工智能体共生下的认知适应——认知适应面临的新情况

发布:2025-12-23 17:51:05
阅读:61
作者:来源: 《人民论坛·学术前沿》2025年第20期 作者: 郦全民
分享:复制链接

习近平主席指出:“人工智能是新一轮科技革命和产业变革的重要驱动力量,将对全球经济社会发展和人类文明进步产生深远影响。”[1]近年来,以大模型为代表的生成式人工智能(Generative Artificial Intelligence)快速而广泛地应用,正在极大地重塑人们的工作、学习和生活方式与社会形态。就个体或组织而言,如何及时、有效地应对这一前所未有的时代变革,已经成为亟须正视和求解的重大现实问题。在此,笔者将着重探究人类智能体(Human Agent)与人工智能体(AI Agent)共生的背景下,个体或组织该如何在认知上积极地调整和适应,以期更为有利地生存和发展。

 

认知适应面临的新情况

适应是生物得以生存和进化的基石与关键。就人类而言,认知适应通常指个体或组织为应对新情况,对认知方式、思维过程和行为策略等进行的调整与改变,以便在变化的环境中有效地生存和发展。在人类社会的发展过程中,人们不时地遭遇新情况和新挑战,又不断地通过改变认知方式和行为策略而达到适应。在这个过程中,人类积累起包括科学在内的大量知识,发明各种各样的技术,创造丰富多彩的文化,从而实现在变化的、不可预期的环境中更有利地生存和发展。

如今,人类已经处在由两类智能体共生的新阶段。那么,在这个新阶段,人类个体或组织的认知适应遇到什么新情况和新挑战?第一,随着人们在工作和学习中经常性地使用人工智能体协助进行文本写作、代码生成、语言翻译、视频创作和行动决策等,虽然可以提高工作和学习的效率,但由于这些原本是专属于人所从事的智力活动,因而,也就有可能导致人自身技能的退化。特别是,随着人工智能体的自主性和能动性不断增强,个人的自主性和认知自由度等就会受到威胁和下降。目前,已经有不少研究确认这种风险的存在。[3]第二,应用人工智能体的一个具体目标是为使用者提供越来越友好的个性化服务,但这在给使用者提供方便的同时,也可能造成认知偏向或认知多样性的减少。在网络世界中,基于人工智能的个性化推荐算法所导致的这种偏好固化现象十分明显,结果是个人愿望变得狭窄和可测,限制自我设定目标和作出新发现的能力。还有,如果强化人工智能体的角色,也会产生“认知回声室”(cognitive echo chamber)效应,容易造成偏向的放大和心理流动性的损失。第三,从技术实现上看,当前的人工智能体所依托的基本上是深度神经网络,而其可包含几千亿甚至上万亿个参数,使得人类无法理解其中运作的具体过程。这种特性传导到宏观层面则不断涌现,而所涉的系统常被称作“黑箱”。结果,虽然人工智能体能够生成符合人类要求的文本或视频,但其内部具体运作的机制和过程却缺乏可解释性。还有,人工智能体也有可能出现“幻觉”,即生成对人类而言不可理喻的输出。这些均可能使人的认知适应面临新挑战:在什么条件下或何种程度上,使用者可以对人工智能体的所作所为予以“信任”?第四,目前的人工智能体主要模拟了人类心智的认知功能,而人类心智还包括意识和情感等体验成分。这样,当具有情感的人(作为智能体)经常与不具备情感能力的人工智能体进行互动时,其认知方式和心理过程就需要作出相应的调整。关于这方面,已经有一些研究成果。比如,最近有报道指出:如果面试官是人工智能体,则面试者的分析性思维能力就会凸显,情感和直觉等因素所起的作用就会下降。[4]第五,人工智能体对人类智力活动的介入引发一系列法律和伦理问题。如一篇文章虽由某个人提出写作要求,而写作的过程则由某个人工智能体独立实施,那么,该文的所有权究竟应该归谁?在一个决策过程中,如果采纳的方案是由人工智能体生成的,那么,出现问题该由谁负责?可以预料,随着人工智能体不断地介入人类的认知活动和行动决策,这类问题将越来越多。容易看出,为求解这类问题,我们要对人工智能体的定位有清晰和现实的认识,而这又与认知适应密切相关。

以上列举在两类智能体共生的新阶段,人类认知适应遇到的五个方面的新情况和新挑战。显然,不同职业、不同年龄的人群所遇到的情况和挑战不尽相同。而且,在这些新情况、新挑战中,认知适应所涉及的对象和关系亦有所不同:既有人对人工智能体的适应,也包括人对“混合智能体”(类似于化学中的分子团)的适应,还涉及人工智能体介入后与人类智能体之间关系的改变。

 

(本文系国家哲学社会科学基金重点项目“人工智能驱动科学的哲学基础研究”的阶段性成果,项目编号:23AZX020)

注释

[1]《习近平向2024世界智能产业博览会致贺信》,2024年6月21日,http://jhsjk.people.cn/article/40261151。

[2]K. M. He, "Introduction: Deep Generative Models," 2024, https://mit-6s978.github.io/assets/pdfs/lec1_intro.pdf.

[3]C. Massimo et al., "The Case for Human–AI Interaction as System 0 Thinking," Nature Human Behaviour, 2024.

[4]J. Goergen; E. de Bellis and AK. Klesse, "AI Assessment Changes Human Behavior," PNAS, 2025(25).   

责 编∕肖晗题 美 编∕周群英

扫码进群
微信群
了解更多资讯