
在传统的教育模式中,知识的可靠性由一套完整的制度基础设施保障。教科书经过同行评审,课程由资质认证的专家授课,图书馆藏书也由专业人员精心挑选。学生可以合理地相信,他们所接触的学习材料符合一定的可靠性标准,从而能够将精力集中在理解而非验证上。生成式人工智能能够以无可挑剔的语法、逻辑严密的结构和自信的语气包装一些常识性错误。这种“专业性的美学”让未经训练的读者难以质疑其底层内容的缺陷。生成式人工智能所产生的是一种“打磨过的垃圾”(polished rubbish),其产出具有极强的迷惑性。学生面对的是“已经被筛选的知识”。在生成式AI情境中,知识呈现为:语言流畅、结构完整,引用看似合理,但真实性不稳定。这种“可信外观 + 不确定真实性”的组合,迫使学生不断进行验证。
Stricker 认为,这种验证行为本身消耗了学习的核心认知资源。生成式人工智能的介入彻底拆解了传统教育生态中完整的制度基础设施保障这一体系。它将认识论上的责任从机构和教师手中剥离,直接甩给了个体学习者。这是一种极其危险且不公平的转嫁:Jeppe Klitgaard Stricker说,“我们正在见证一种根本性的认识论责任转移:原本由机构承担的质量保证工作,现在正被外包给那些最不具备监督能力的新手。”这里隐藏着一个深刻的、近乎讽刺的悖论:“生成式AI要求将专业知识作为安全使用的先决条件,这使得它在学生最需要帮助时最不可靠。”这意味着,AI不仅没有缩小知识差距,反而提高了个体有效利用信息的门槛。它在学生最脆弱、最需要引导的时刻,表现得最为不可靠。生成式人工智能教育应用,打着“赋能学与教”、“知识与信息民主化”、“减负、增效、提质”的旗号,降低了人们获取信息与知识的门槛,实则却在一定程度上悄然瓦解了许许多多学习者的智力主权。
Jeppe Klitgaard Stricker指出,生成式人工智能将系统性的责任甩给个人,将表面的美学置于事实之上,并用无休止的低效审查取代了有意义的思维挣扎。这种技术的推广,正在让我们付出沉重的代价:学习不再是关于“如何思考”,而变成了“如何防范”。当我们的教育重心从“培养理解力”转向“培养验证力”,我们必须审慎地自问:我们究竟是在进化,还是在进行一场徒劳的认知内耗?如果一种工具让学生在最需要帮助时变得最疲惫,那么,这种“解放”或许只是另一种形式的枷锁。对此,您怎么看?欢迎跟帖分享您在的主张!




