




Susan Schneider,苏珊 . 施耐德,佛罗里达大西洋大学AI、心智与社会未来中心创始主任,W. Dietrich 杰出教授,隶属于该校哲学系与Stiles-Nicholson 脑科学研究所;兼具哲学与认知科学背景的顶尖学者,深耕 AI 意识、智能未来、天体生物学等交叉领域,同时也是学术、科研、公共传播多领域的活跃实践者,

源自animalia-life.club,特别鸣谢!


无论是英文原版,还是中文版本,装帧精美,让人爱不释手!翻开引言,Schneider 把时光推到了2045年,她以 2045 年的虚构场景开篇,搭建了两个充满伦理争议的未来画面:心智设计中心:人类可购买 “超级计算大脑”、“心灵感应” 等增强功能,但核心追问是 —— 当增强达到一定程度,“被增强的人” 是否还能称为原本的 “自我”?仿生人商店:高智能人形机器人可承担家务,但关键问题是 —— 若机器人产生意识,强迫其劳动是否等同于奴隶制?这两个场景直接引出著作的核心研究对象:AI 意识与个人同一性。机器意识的哲学与伦理问题、人类技术增强对个人同一性的挑战,人的大脑增强到何种程度会失去 “自我” 属性;若智能机器人产生意识,强迫其劳动是否等同于奴隶制,AI 意识与个人同一性这两个议题构成了Schneider 全书展开论证的核心主线。
在引言,造访心智设计中心(Your Visit to the Center for Mind Design)之后,全书正文共计8章,分别是人工智能时代(The Age of AI)、人工智能的意识难题(The Problem of AI Consciousness)、意识工程(Consciousness Engineering)、如何抓住人工智能僵尸:机器意识的测试方法(How to Catch an AI Zombie: Testing for Consciousness in Machines)、你能与人工智能融合吗?(Could You Merge with AI?)、心智扫描(Getting a Mindscan)、充满奇点的宇宙(A Universe of Singularities)、以及你的心智是软件程序吗?(Is Your Mind a Software Program?)在八章之后,作者亮出了自己的结论:大脑的来世(The Afterlife of the Brain),总结了全书核心观点,提出了对人类心智增强与 AI 发展的“形而上学谦逊”原则:呼吁科学、哲学与社会各界,在未充分理解心智本质前,谨慎推进激进的脑增强与 AI 技术,避免技术发展违背个体的自我存续,同时重申 AI 伦理研究中意识与个人同一性问题的核心价值。针对第一个问题,Schneider 将 David Chalmers 的 “意识难题” 适配到 AI 领域,提出了 “AI 意识难题”:高度复杂的 AI 是否存在 “作为该 AI 的主观体验”?围绕这一问题,她拆解了两大对立理论,并提出自己的中间立场与实证测试方案:1、生物自然主义(John Searle):主张意识的产生必须依赖生物过程与生物基底,纯人工系统无法产生意识;2、技术乐观主义(计算主义):只要创造出能完成人类所有智力任务的通用人工智能(AGI),就必然能产生 AI 意识,与物质基底无关。Susan Schneider 对上述两种理论均表示不满,她采取了一种中间立场:即观望法(Wait and See Approach) 。
Schneider认为,机器意识是否需要特定基底 / 架构,无法通过先验推理确定,必须通过实证测试验证,这也是她后续设计意识测试的核心依据。这本书最引人入胜的地方、最吸引我们的地方就在于,无论你是人工智能新手还是思想领袖,它都会向你抛出一系列发人深省的问题。机器人真的能拥有意识吗?如果非生物人工智能能够拥有意识,它们是否应该享有人权?如果非生物人工智能能够拥有意识,而我们自身对思维/意识的理解又尚不完全,那么我们又该如何知道这种情况何时发生呢?如果我们利用科技增强大脑,或者与人工智能融合,这会破坏我们大脑中意识的功能/整合吗?增强后的受益者还会是你吗?还是说,在增强的过程中,你已经自我毁灭/被取代了?从设计和原材料的角度来看,创造意识需要什么?我们是否有理由相信,人脑是由特殊的材料构成的,这种材料能够产生无法复制的意识?或许人类只是进化阶梯上的一个阶段,最终会进化成超智能的非生物物种。这对人类、思维和意识的未来意味着什么?我们能像埃隆·马斯克和雷·库兹韦尔等科技领袖所建议的那样与人工智能融合吗?到本世纪末,人类或许不再是拥有最高总体智能的物种。如果真是如此,我们将如何控制远比我们智能得多的生物?一个超级智能体又能做到什么?这些问题值得你深思,并尝试在一切尘埃落定之前,就思考并提出自己的答案。2025年11月8日,在《纽约时报》的评论文章中,哲学家芭芭拉·蒙特罗(Barbara Montero)指出:“……人工智能正在朝着更非凡的方向发展:获得意识。”她的观点反映了一种更广泛的公众倾向,即怀疑:聊天机器人大语言模型(LLM)令人印象深刻的语言能力表明它们具有意识——从内部感受来看,成为它们似乎是一种体验。毕竟,这些系统已经表达过情感,包括声称拥有意识。忽视这些说法可能会被认为是物种歧视,但我认为,一旦我们深入了解其内部运作机制,就没有理由认为,像GPT、豆包、DeepSeek或Gemini这样的聊天机器人具有意识。如今的大语言模型(LLM)基于海量的人类数据进行训练,其中包括关于意识以及我们对情感、自我和心智的认知数据。当它们声称自己拥有意识或情感时,并非它们在进行欺骗,这仅仅是因为它们已经基于我们大量的关于意识、心智和情感的数据进行了训练。因此,聊天机器人声称拥有意识并不能证明它们真的拥有意识。然而,目前已经存在一些生物人工智能和神经形态人工智能处于意识灰色地带。在自留地君看来,Schneider 在书中的重要贡献是她提出了两种意识测试:
1、AI 意识测试(ACT):类比图灵测试,但核心差异是图灵测试验证行为智能,ACT 旨在探测机器的 “内在主观属性”。通过开放式问题(如 “是否思考来世”、“如何看待身体交换”、“对未来事件是否有偏好”)判断 AI 是真正有意识,还是仅能正确回应的 “哲学僵尸”;Schneider 提出,通过该测试的 AI 应被认定为有意识,并赋予相应法律保护。联系过去几个月,在 Moltbook里,智能体们讨论的哪些话题,似乎它们2、芯片测试:假设人类大脑中负责意识的区域因肿瘤受损,用功能上与该区域同构的微芯片替换,且人类保持清醒并报告主观体验变化。若体验无变化,说明该芯片具备产生意识的可能;若多种基底 / 架构的芯片均导致体验变化,则说明 AI 难以产生意识。
在2020年12月31日的一篇题为《苏珊・施耐德提出的人工智能意识测试:颇具前景但存在缺陷》(Susan Schneider’s Proposed Tests for AI Consciousness: Promising but Flawed)的文章中,https://faculty.ucr.edu/~eschwitz/SchwitzPapers/SchneiderCrit-200828.pdf作者,纽约市立大学研究生中心 David Billy Udell 与加州大学河滨分校哲学系的 Eric Schwitzgebel,批判性地审视了苏珊·施耐德为检测人工智能意识所提出的人工智能意识测试 (ACT)与芯片测试。他们认为,虽然这些测试试图在不同意识理论间保持中立性,但这些测试在逻辑上存在的一种致命张力,它们在逻辑上存在“受众问题”:
也就是说,那些最需要这些测试来证明AI意识的人,恰恰也是最不可能被测试结果说服的人。文章指出,ACT 可能无法排除复杂的非意识机制解释,而芯片测试则过度依赖于在逐步替换大脑过程中可能已经失效的内省能力。尽管存在这些缺陷,David Billy Udell 与Eric Schwitzgebel仍肯定了这些提议在推动机器意识评估领域所具有的学术价值。它们标志着人类在量化和实证评估机器意识方面迈出了重要一步。在缺乏共识性意识理论的今天,这些测试提醒我们,人工智能意识的判定可能永远无法完全脱离特定架构理论的支持。在自留地君看来,苏珊·施耐德在书中体现出了她的超人类主义观点:人类神经回路与数字技术的融合不仅是可取的、不可避免的,更是进化的下一步。她或多或少地将Ray Kurzweil的奇点(Technological Singularity)视为既定事实:人工智能超越人类智能后,技术发展将失控、加速,引发文明彻底重构的未来临界点。




