

人工智能一日千里!关于生成式人工智能教育应用的研究和讨论,过去这几年,主要由功能-效率范式主导。人们关注的焦点多集中在认知外包、学术诚信、提示词工程等操作性议题上。然而,使用者,尤其是学习者的内心世界远非一个纯粹的认知运算器——他们的AI使用行为,夹杂着“焦虑”、“内疚”、“羞耻感”等伴随的情绪,人工智能应用被复杂的情感过程深深浸润、驱动甚至扭曲。当一名学生面对空白的文档,光标闪烁时,他经历的不仅是“用不用AI”的决策,在其内心深处,则更是一场微型的、复杂的、波澜壮阔的情感风暴。
也就是说,随着生成式人工智能在学校教育中的迅速普及,学生与AI的互动日益频繁,这不仅带来了教育模式的变革,也催生了一系列复杂的心理与情感反应。其中,最为普遍的是“人工智能焦虑”(AI Anxiety)、“人工智能内疚”(AI Guilt) 和“人工智能羞耻”(AI Shaming)、以及AI 冒充者综合征 (AI Impostor Syndrome)。1、人工智能焦虑(AI Anxiety)在目前四个概念中,人工智能焦虑是研究最为广泛、定义最为清晰的一个。它被定义为个人在思考、接触或使用人工智能技术时所体验到的恐惧、忧虑、不安和不适感。这种焦虑是一种整体性的反应,它抑制个体与AI进行有效互动的意愿和能力。人工智能焦虑的指向既非过去的行为,亦非当下的自我,而是朝向未来。它源于对三重不确定性的深刻感知:能力不确定性,即今日学习之技能明日是否会被AI取代;评价不确定性,即教师与体制会如何定义AI时代的优秀;存在不确定性,即作为人类思考者的长期价值何在。这种焦虑没有明确对象,是一种弥散性的警觉状态,持续消耗着认知与情感资源,使学习者在拥抱与抗拒AI之间来回摇摆。根据现有研究,AI焦虑是多维度的,其来源和表现形式多样化,主要包括:学习与技能焦虑:担心自己无法掌握使用AI所需的新技能,害怕在技术浪潮中落伍;工作替代焦虑:对未来职业前景的担忧,害怕AI将在未来取代人类工作,从而影响自己的职业发展;社会技术盲点焦虑:担忧AI技术可能带来的社会伦理问题、隐私泄露、算法偏见等宏观层面的负面影响;人际与情感疏离焦虑:担心过度依赖AI会削弱人际交往能力,导致情感世界的“荒漠化”或与他人产生隔阂;以及配置与操作焦虑:在具体操作AI工具时感到的技术性困难和挫败感。在《人工智能焦虑到底是什么?有哪些类型?》以及《161位网友所遭遇的AI 焦虑》中,自留地君曾对此作过一些分析。2、人工智能内疚 (AI Guilt )人工智能内疚是一个相对较新的概念,目前学术界尚未形成统一的定义,但其内涵正逐渐清晰。它主要指学生因使用(或过度依赖)AI完成学术任务而产生的一种与道德、诚信和努力相关的负面情绪。它是人在使用AI时产生的道德不适或负罪感,源于对“行为不当”的评价。这种情绪体验通常包含认为自己“不诚实”、懒惰、或者走了捷径的感受,是一种对自身“行为”的负面评价 。人工智能内疚是一种以行为为中心(behavior-focused)使用 AI 的具体行为及其后果的道德评判。它是一种回顾性的、与特定“行为”失范相关的道德情感。其核心心理机制是“我做了一件错事”。目前,学术界关于人工智能内疚主要包含以下几个核心维度:核心诱发因素:个体会因为意识到使用 AI 带来的道德冲突而产生内疚感,具体包括:个人创作真实性、学术诚信、以及个体可能觉得使用 AI 意味着自己在推波助澜或默许一些系统性问题,例如,AI 模型训练带来的环境影响、外包产生的剥削性劳工条件、未经许可使用他人作品导致的版权侵犯,以及 AI 在网络钓鱼、政治操纵或大规模监视中的潜在应用。行为影响与后果:包括减少使用频率、补救倾向以及应对策略。减少使用频率,研究发现,AI 内疚感与 AI 工具的使用频率呈显著负相关。这意味着感到内疚的人通常会减少使用这些工具。与羞辱感可能导致防御或隐瞒行为不同,内疚感往往会促使个体采取补救行为(reparative behaviors),试图减轻或抵消违规行为带来的负面影响。感到内疚的用户更倾向于采取“以问题为中心”的应对策略,例如主动调整行为以符合道德标准,而非仅仅进行情感上的排解。人工智能内疚是自我行为与内化规范之间的张力所引发的道德性不适。3、人工智能羞耻感(AI Shaming)与AI 焦虑和 AI内疚相比,人工智能羞耻的研究更为初步,学术文献中甚至很少直接使用这个术语。人工智能羞耻感是指对使用人工智能(AI)生成内容或执行任务的个人或组织进行批评或轻视的行为。这种现象通常涉及否定 AI 辅助工作的有效性或真实性,暗示使用 AI 是欺瞒、懒惰的表现,或者认为其价值低于纯人工努力。人工智能羞耻感可能表现为对 AI 使用者的指责、怀疑或蔑视,这往往是由对新技术的误解或恐惧驱动的。目前专门探讨人工智能羞耻感的学术文献存在显著空白,对它的研究的研究仍处于起步阶段。与AI焦虑相比,对AI内疚与羞耻的研究尚处于萌芽阶段,其特点是研究方法以定性为主,成果多为现象描述和初步理论探讨,缺乏成熟的定量研究工具和系统的影响机制分析。文献极为有限,其中,Louie Giray, 2024研究识别了人工智能羞耻感的多项特征,包括否定真实性(认为 AI 缺乏创意)、道德评判(将其视为作弊)、人身攻击(质疑使用者能力)、抵制变革、权力博弈、恐惧被取代、守门行为(设置障碍排斥 AI 使用者)、对 AI 的误解以及代际隔阂。研究揭示了参与 AI Shaming 的不同群体及其动机,探讨了这种羞辱行为对科研环境的负面影响,如抑制技术应用、扼杀创新、增加研究人员的压力与焦虑、拉大技能差距、减少协作以及错失效率提升的机会。作者倡导在“后数字化学术写作”(postdigital academic writing)背景下,通过透明披露和负责任的使用来应对 AI Shaming,鼓励将 AI 视为增强人类能力的工具,而非替代品。人工智能羞耻感是因使用AI而对“自我”产生负面评价的社会性情绪,在本质上是对“自我”的否定。4、AI 冒充者综合征 (AI Impostor Syndrome)这是一种更深层的焦虑。当你凭借 AI 辅助获得赞誉或成就时,你觉得自己是个“骗子”,不配拥有目前的荣誉,并时刻担心真相被戳穿。Cipriani et al. (2026) 开发了一个名为 SAG-AI 的心理测量量表,用于测量用户在使用AI工具时的羞耻(shame)、内疚(guilt)和AI 冒充者综合征(impostor syndrome)。通过两项调查研究,作者验证了该量表的三个因子结构、性别不变性、内部一致性和预测效度。研究发现,人工智能内疚和 AI 冒充者综合征与AI使用频率呈负相关,而羞耻感反而与使用频率呈正相关,这可能与羞耻者更倾向于隐瞒或合理化行为有关。有趣的是,这一发现挑战了直觉:羞耻并不一定导致行为抑制,反而可能促使人们更隐秘或更频繁地使用AI。这对理解“AI羞耻”的行为后果具有重要意义。

Photo by Johnnie Walker随着生成式人工智能(AI)工具的普及,用户在与其交互过程中表现出的情感响应,特别是社会性道德情感,已成为衡量技术接受度、道德立场和用户心理健康的关键指标。人工智能焦虑、人工智能内疚、人工智能羞耻感、以及AI 冒充者综合征构成了生成式人工智能时代学习者的核心情绪结构。其中,人工智能焦虑源于未来不确定性,人工智能内疚源于规范冲突,人工智能羞耻感源于身份威胁,而AI 冒充者综合征可以说是前面这些情绪结构共同作用的结果。这四者共同作用,形成一种“情绪驱动的隐性AI使用机制”,并对学习真实性与习动机产生深远影响。
这是非常值得研究的课题~!面对 AI 带来的情绪纠结和心理阵痛,简单的监控或惩罚只会加剧焦虑、内疚、隐瞒与羞耻感。我们需要一种从“技术工具论”向“关键情感素养” (Critical Affective Literacy)的范式转移。目前最大的理论空白在于对AI 焦虑、AI内疚和AI羞耻感缺乏清晰、独立且获得共识的概念界定;学界没有任何一个经过严格信效度检验的、专门用于测量学生在AI使用情境下的焦虑、内疚感和羞耻感的量表。现有研究绝大多数是横断面的,只能捕捉特定时间点上的情绪状态。我们对这些负面情绪如何随着时间的推移而演变知之甚少。尽管大量文献描述了学生使用AI的负面情绪 并有研究从宏观层面探讨了教育政策的回应(如强调伦理教育、制定使用规范等) 但具体到课堂教学层面,针对如何有效缓解学生AI焦虑、AI内疚与AI羞耻感的、经过实证检验的教学干预策略研究几乎为空白。我们需要建立一个具备“教学信任” 的环境。未来的理想方向是开发出更多“无需隐瞒” (Disclosure-safe) 的 AI 工具——这些工具在设计之初就考虑到了保护使用者的道德立足点与能力尊严,鼓励公开透明的协作,而非逼迫人们在地下室里使用。呼吁我们教育技术专业和心理学专业的硕士和博士研究生,持续关注并投入到这个极具前景的课题中。

Giray, L. (2024). AI shaming: The silent stigma among academic writers and researchers. Annals of Biomedical Engineering, 52(9), 2319–2324.https://doi.org/10.1007/s10439-024-03582-1Cipriani, E., Menicucci, D., Greco, A., & Grassini, S. (2026). Emotional responses to AI use: Development of the SAG-AI scale for shame and guilt. International Journal of Human–Computer Interaction, 1–19.https://doi.org/10.1080/10447318.2026.1234567Oberg, G., Liang, Y., Bearman, M., Fawns, T., Henderson, M., & Matthews, K. E. (2026). Feeling AI: Circulating emotions, institutional climates, and moral boundaries in student use of AI. Higher Education, 1–19.https://doi.org/10.1007/s10734-026-01658-6
