具身智能的三重伦理挑战
来源: 《人民论坛·学术前沿》2025年第20期 作者: 肖峰
【摘要】具身智能使人工智能在“人工”的方向上进一步成为人工身体、人工行动、人工主体的集合体,同时带来三重伦理挑战,即人工身体造成的“恐怖谷”效应、人工行动引发的“责任谷”困境,以及人工主体介导的“身份谷”问题。应对这些挑战,需要我们克服人工智能的软硬件缺陷,建立跨学科的伦理治理框架,在技术研发初期嵌入伦理设计,明确人机协作的责任边界,通过社会对话凝聚价值共识,确保具身智能的发展始终服务于人类福祉。
【关键词】具身智能 恐怖谷 责任谷 身份谷 伦理挑战
【中图分类号】TP18 【文献标识码】A
【DOI】10.16619/j.cnki.rmltxsqy.2025.20.009
【作者简介】肖峰,上海大学智能时代的马克思主义研究中心暨智能哲学与文化研究院教授、博导。研究方向为科学技术哲学、信息技术哲学和人工智能哲学,主要著作有《科学精神与人文精神》《技术发展的社会形成》《信息主义:从社会观到世界观》《信息文明的哲学研究》《信息革命与当代认识论研究》等。
人工身体的“恐怖谷”效应
具身智能作为人工智能与物理实体深度融合的前沿领域,目前主要聚焦自动驾驶与智能机器人技术两大应用方向。其中,自动驾驶通过赋予车辆环境感知、决策规划与自主控制能力,实现交通工具的智能化运行;而机器人技术则涵盖更广泛的各类智能机械体的研发与应用(自动驾驶技术在某些情境下亦被归类于智能机器人技术,被称为“车型机器人”)。在智能机器人技术中,人形机器人凭借其高度拟人化的形态给人带来的亲和感和交互力,展现出无限广阔的应用前景,成为具身智能技术落地最具潜力的发展方向。
通俗地说,具身智能是“有身体”的人工智能,这是具身智能与传统人工智能最直观的区别。在人形机器人的开发中,具身智能进一步将“具身”具象化为类人形态的身体,即通过构建类似人的身体(即“仿身”)来实现智能行为,这种仿人之身所建造的人工物可称为“人工身体”:一种人造的人形实体。人工身体作为人形机器人的物理形态,其“人形”特征必然涉及“拟人”的真实度问题,而人类对于“形似人类却非真实人类”(“像人而非人”)的存在物始终存在着深层心理戒备与本能排斥,这种心理防御机制在机器人研究领域被称为“恐怖谷”(Uncanny Valley,又译为“恐惑谷”“怪异谷”等)效应。也就是说,具身智能所建造的人工身体,首先在现象层面便会面临“恐怖谷”的伦理挑战。
“恐怖谷”理论由日本机器人专家森政弘(Mori Shigeto)于1970年提出,该理论描述了人类对机器人的情感反应随着拟人化程度的变化而变化,并呈现带有谷底的曲线分布:当机器人外观和行为与人类相似度达到特定程度或某个临界点时,人类好感度会急剧下降,产生不适、恐惧甚至反感的情绪,形成一种“恐怖谷”效应。[1]具体而言,当机器人或其他人形人造物(如蜡像、计算机图像仿真人即CG仿真人、僵尸等)与人类相似度较低时,人对机器人的好感度会随着相似度的提高而增加。然而,当机器人的拟真度达到某一特定临界值时,即其形态已高度近似人类但尚未完全达到自然生物特征标准(接近但不完全类人,即“似人非人”)的情况下,人类对其的心理反应会出现好感度的突然暴跌,并产生强烈的排斥感。此时,即便机器人仅存在极其细微的人类特征偏差,这些细微差异也会在观察者认知中形成异常突出的视觉刺激,导致整体观感呈现僵硬诡异的特质,类似面对行尸走肉般的恐怖体验。而当相似度继续上升至与真人无异即完全类人时,人类对机器人的好感度又会回升至正常水平。简而言之,当机器人的拟人化程度达到一定程度时,反而会令人产生恐怖感,或者说,人形人造物在逼真度达到特定阶段时,会引发人类的不安情绪。
机器人的发展历程呈现与“恐怖谷”理论相符的演变曲线。处于低拟真阶段的工业机器人、扫地机器人,人类可以明确其“工具属性”,因而不会产生排斥感;而在高拟真阶段,如波士顿动力Atlas机器人(具备多模态交互和生物力学仿真能力)以及宇树科技推出的跳舞机器人,由于人类对人形机器人重建了“类生命体”认同,也不会产生拒斥感。然而,在早期仿真机器人阶段,如2016年的“索菲亚”机器人,其僵硬而程式化的微笑曾引发观察者的不安和舆论差评,而日本大阪大学研发的Repliee Q2,因其高度逼真的外观与动作不协调的矛盾以及面部细节的潜在缺陷,被公众形容为“令人毛骨悚然”。[2]处于恐怖谷阶段的人工身体技术,虽然在某些方面实现静态拟真(如3D打印皮肤),但未能同步达到动态自然性(如肌肉协同运动),难免导致“似人非人”的恐怖感受。在这个意义上,“恐怖谷”现象通常与人类对人工身体的感知不匹配密切相关,这种不匹配容易引发认知冲突,直接干扰人类大脑感知处理系统的正常运作机制,进而导致观察者对机器人等产生消极的情绪反应。
“恐怖谷”效应得到来自脑成像、婴儿注视、动物行为等多方面的实验支持。如功能性磁共振成像(fMRI)实验的结果表明,大脑对“外观-运动不匹配”的敏感性是“恐怖谷”效应形成的核心触发条件。[3]研究发现,产生“恐怖谷”的心理生理机制有多种,包括认知冲突、进化本能和预期违背等。当机器人呈现“似人非人”的临界状态时,视觉系统会产生认知冲突,大脑在“像人”和“非人”之间无法归类,从而触发警觉。此时,生物进化所形成的本能激活了人对死亡或疾病的回避反应。美国机器人学家麦克多曼(Karl MacDorman)等人曾提出,“恐怖谷”可能与人类对死亡的本能恐惧有关。比如,当机器人或虚拟角色过于接近人类时,可能触发一种“替代性死亡焦虑”:逼真的机器人可能唤起人类对自身死亡的象征性联想,导致防御性回避反应,这也是人类对“非生命体拟人化”的本能恐惧。[4]微妙的异常(如僵硬表情、无生命眼神)还会打破人类对“自然行为”的预期,预期的违背又进一步放大人类的不适感,强化“恐怖谷”效应。概括而言,“恐怖谷”本质上是人类在认知系统进化过程中形成的防御机制:当人造物过度接近生命体特征时,可能激活对死亡或疾病的本能回避反应。
当然,“恐怖谷”效应在不同的人群中也表现出不同的个性化特征。研究表明,女性和老年人更易产生恐怖谷效应。[5]此外,年龄越大,对新技术的接受度普遍较低,对机器人的兴趣也越低。比如,00后群体对仿真机器人的排斥感比60后低68%,这表明代际更迭可以弱化“恐怖谷”效应。[6]这种差异源于数字原住民自幼接触虚拟助手形成的适应性心理,也可以理解为社会审美范式的代际变迁会影响新一代对具身智能体的感受。这一关联也与神经心理学家魏格尔特(Sarah Weigelt)指出的趋势相吻合:随着人形机器人的普及,人类对其逼真特征的敏感度将逐渐降低,“一旦逼真机器人成为常态,异常感便会消失”。[7]随着类脑模型与动态交互技术的突破,以及肌电控制精度进入毫秒级、情感计算模型参数量超千亿,未来的人形机器人有望在情感自然性上逼近人类,实现人机之间“有温度的共融”,从而可能迎来“恐怖谷”效应的系统性跨越。[8]
“恐怖谷”效应的实质在于,在研发人形机器人的过程中,不可避免地会遇到人类对人工身体的接受程度问题。具身智能中的人形仿身如果引起人的不适、困惑甚至恐惧,无疑将导致不良情绪体验,形成负面的伦理效应。这既挑战人机共处的心理边界,也可能加剧技术异化风险,导致个体对智能技术的整体不信任。因此,如何通过优化设计伦理来平衡人工身体的拟真性与人类情感的舒适度,并建立预防性评估机制来规避潜在的心理伤害,已成为具身智能研发中需要重点解决的伦理问题。
“恐怖谷”效应本质上是技术演进中“拟人化临界态”的阶段性现象,是“技术过渡期”的重要特征之一。它通过量化人类对拟人化物体的感知反应,揭示技术与情感之间的复杂关系,为设计和工程领域通过技术迭代与设计策略来主动突破此效应提供理论启示。目前,在机器人设计领域,为尽量规避“恐怖谷”效应,工程师会有意避免让机器人过于接近人类。比如,现代服务机器人Pepper通过卡通化大眼睛与圆润轮廓维持亲和力的实践表明,刻意保留非人特征在一定场合反而能提升亲和度。重视动态的协调也是弱化“恐怖谷”效应的重要方向。如前面提到的波士顿动力的Atlas和宇树科技的跳舞机器人,由于其动态自然性突破阈值,并未引起人的恐惧感。机器人学中也包括指导开发者平衡“拟人化”与“机械感”的原则和方法,这告诫我们,技术越追求拟真,越需警惕“恐怖谷”的“谷底陷阱”,力求通过设计策略来逐步“填平”这个谷底。这种设计策略可以通俗地归结为:要么足够不像人,要么足够像人,千万别卡在中间。这意味着要合理地控制人形外观的相似程度,避免将“具身”简单理解为“完全拟人”,在总体上应优先实现功能性拟人化,而非单纯追求身体外形的形式化拟人效果。
在具身智能的发展进程中,“恐怖谷”效应已然成为一项亟待应对的伦理挑战。为缓解人类在面对高度拟人化机器人时所产生的一系列不安与排斥心理,设置伦理护栏显得尤为重要。具体而言,可以通过明确标识来帮助用户建立“人机边界”认知。比如,在机器人关键部位(如眼部或胸口)设置常亮的蓝色呼吸灯,使其在交互时自动触发“我是服务型机器人”的语音提示,或在操作界面持续显示“非人类实体”的文字标识。这类身份透明化的设计不仅能通过视觉与听觉的多模态反馈强化用户“它是机器”的认知,还能有效预防因机器人过度拟真(如自然表情、流畅动作)导致的心理失调。欧盟于2024年出台的《人工智能法案》特别规定,所有具备类人外形与交互能力的机器人必须强制安装非人标识系统(如特定颜色的环境光或动态标识),这种技术防护机制在当前人工智能情感模拟能力尚不完善的情况下,能够为人类提供必要的认知缓冲带,既可避免用户因误判机器人的人化程度而产生被欺骗感;又能通过主动降低用户对其拟真度的感知强度,从源头减少因人机边界模糊而引发的本能恐惧与道德焦虑,最终实现人机共处舒适度的整体提升。
综上所述,“恐怖谷”效应作为具身智能发展的伦理挑战之一,既是技术成熟度的阶段性表征,也是人类认知系统与新兴技术交互作用的产物。其应对策略不应局限于单一的技术手段或伦理规范,而应通过技术创新、设计优化与伦理建设的协同推进,将这一“风险曲线”转化为智能文明提升的重要契机。
注释
[1]M. Fossati and G. Grioli et al., "From Robotics to Prosthetics: What Design and Engineering Can Do Better Together," ACM Transactions on Human-Robot Interaction, 2023, 12(2).
[2]F. Ferrari, "Too Human To Be a Machine? Social Robots, Anthropomorphic Appearance, and Concerns on the Negative Impact of This Technology on Humans and Their Identity," 2015, https://iris.unitn.it/handle/11572/369181.
[3]A. Saygin and T. Chaminade et al., "The Thing That Should Not Be: Predictive Coding and the Uncanny Valley in Perceiving Human and Humanoid Robot Actions," Social Cognitive and Affective Neuroscience, 2012, 7(4).
[4]K. MacDorman and H. Ishiguro, "The Uncanny Advantage of Using Androids in Cognitive and Social Science Research," Interaction Studies, 2006, 7(3).
[5]K. F. MacDorman and Z. A. D. Pramono et al., "Human Emotion and the Uncanny Valley: A GLM, MDS, and Isomap Analysis of Robot Video Ratings," in Proceedings of the 3rd ACM/IEEE International Conference on Human-Robot Interaction (HRI), Amsterdam, Netherlands, 2008, pp. 169-176.
[6]J. M. González-Anleo and L. Delbello et al., "Sociodemographic Impact on the Adoption of Emerging Technologies," Journal of Small Business Strategy, 2024, 32(2).
[7]《为什么特斯拉的人形机器人长得并不像人?一文了解恐怖谷效应对机器人公司的影响》,2022年8月22日,https://cloud.tencent.com/developer/article/2082605。
[8]沈毅斌:《“有温度”的交互体验,人形机器人如何突破恐怖谷效应》,2024年9月11日,https://www.thepaper.cn/newsDetail_forward_28705703。
[9]D. B. Resnik and M. Hosseini, "The Ethics of Using Artificial Intelligence in Scientific Research: New Guidance Needed for a New Tool," AI and Ethics, 2025, 5(2).
[10]刘云:《论人工智能的法律人格制度需求与多层应对》,《东方法学》,2021年第1期。
[11]孟强:《脑机接口技术运用中自然人的意思自治与责任承担》,《北京理工大学学报(社会科学版)》,2023年第6期。
[12]张叶东:《具身智能赋能生态环境修复的法治路径》,《上海法学研究》,2024年第2期。
[13]杨清望、张磊:《论人工智能的拟制法律人格》,《湖南科技大学学报(社会科学版)》,2018年第6期。
[14]R. Wright, "The Constitutional Rights of Advanced Robots (and of Human Beings)," Arkansas Law Review, 2019, 71(3).
[15]雨果·德·加里斯:《智能简史——谁会替代人类成为主导物种》,胡静译,北京:清华大学出版社,2007年,第189页。
[16]S. Natale, Deceitful Media: Artificial Intelligence and Social Life after the Turing Test, Oxford University Press, 2021. 该书的中译本为《欺骗性媒介:图灵测试之后的人工智能与社会生活》,汪让译,上海:复旦大学出版社,2023年。
[17]T. Dodds, "Deceitful Media: Artificial Intelligence and Social Life After the Turing Test, by Natale Simone," Journalism & Mass Communication Quarterly, 2022, 99(2).
[18]H. Sætra, "The Ghost in the Machine,
Human Arenas, 2019, 2(1).
责 编∕杨 柳 美 编∕梁丽琛
The Triple Ethical Challenges of Embodied Intelligence
Xiao Feng
Abstract: Embodied intelligence further transforms artificial intelligence into a collection of artificial bodies, artificial actions, and artificial subjects in the direction of "artificial", while bringing about triple ethical challenges. That is, the "uncanny valley" effect caused by artificial bodies, the "responsibility valley" predicament triggered by artificial actions, and the "identity valley" problem mediated by artificial subjects. To address these challenges, it is necessary for us to overcome the software and hardware deficiencies of artificial intelligence, establish an interdisciplinary ethical governance framework, embed ethical design in the early stage of technology research and development, clarify the responsibility boundaries of human-machine collaboration, and build value consensus through social dialogue to ensure that the development of embodied intelligence always serves human well-being.
Keywords: embodied intelligence, uncanny valley, responsibility valley, identity valley, ethical challenges
[责任编辑:杨柳]














