不懂AI,不让毕业?AI 素养,正在被名校写进毕业门槛

AI 新资讯3周前发布
1,716 0 0
熊猫办公

2026 年开年不久,一则消息让大家都非常震惊,美国普渡大学(Purdue University)。在 2025 年 12 月的董事会会议通过后:从 2026 年秋季入学的新生开始,AI working competency(可译作“AI 工作胜任力/实作胜任力”)将成为本科毕业要求的一部分。它不是多开一门“AI 通识课”那么简单。普渡的设计思路更像一句话:“AI 要进入所有专业,不是进入一个专业。”官方信息显示,这项要求会被嵌入各学院与专业路径中,让学生在学科情境里证明“会用、会判断、会负责”。校长 Mung Chiang对这件事也进行了直白的解释:“在 AI 真正拿走所有人的工作之前,具备 AI 技能的人,会先拿走不具备 AI 技能的人的工作。”这句不是鸡汤,是名校在给学生划“生存线”。
与此同时,香港大学也在课程与培养方案中,把人工智能素养(AI literacy)明确写进本科要求:AILT1001(Artificial Intelligence Literacy I)对 2025-26 入学起的本科生属于必修课程,并作为后续第二门人工智能素养(AI literacy)学习的前置。
更早一步的信号来自 K–12 端:罗马尼亚的 Cambridge School of Bucharest 公布2026 年 3 月 14 日举办AIDUCATION ’26,主题“Innovation with Integrity(以诚信为前提的创新)”,以工作坊与案例方式聚焦 AI 与教育的实践与伦理边界。
把这些放在一起看,你会得到一个结论:
AI 素养(AI Fluency)正在从“兴趣选修”,变成“基础生存能力”。

1.深度解析:为什么名校会这么“激进”?

过去,大学评价一个人的能力,常常在考:
你解题有多快、记得有多牢、步骤有多标准。但当 AI 以近乎无限的速度提供“现成答案”时,大学真正稀缺的能力变成了三件事:

  • 你能不能定义一个值得解决的问题(而不是只会接收题目)
  • 你能不能把 AI 当工具而不是当拐杖(知道用到哪一步就该停)
  • 你能不能为 AI 的后果负责(引用、隐私、偏见、造假风险)

说穿了:从“解题速度”转向“问题定义 + 协同判断 + 责任边界”。这也是为什么,“AI 素养”最怕被误解成“会写提示词”。
提示词只是入口,真正的素养是:人机分工、清晰表达、批判辨析、伦理勤勉。2.AI 素养的一个权威刻度尺: 4D Framework国际上有一套可公开引用、并配套课程资源的框架,常用于描述与训练“AI Fluency”,即4D 模型
它把“人和 AI 如何协作”拆成四个可训练、可观察的能力维度:

  • D1|委派 Delegation:决定什么该交给 AI,交多少,何时收回
  • D2|描述 Description:把模糊需求翻译成机器能执行的指令
  • D3|辨析 Discernment:识别 AI 的瞎编、偏见、偷换概念、伪引用
  • D4|审慎负责 Diligence:隐私、署名、引用、伦理与责任边界

3. 4D 到底是什么?

我们可以把孩子的 AI 能力想象成开车:
不是会踩油门就叫会开车,而是知道什么时候开辅助驾驶、怎么设导航、怎么判断路况、怎么守规则。

D1|Delegation(委派):该不该交给 AI?交多少?

核心能力:人机分工。

  • 成熟表现:先设目标,再决定“让 AI 做哪一段”,把 AI 当助理/副驾驶。
  • 常见翻车:作文/作业整段丢给 AI=把方向盘直接丢出去。

比如——

  • 写作文:AI 负责“提纲/角度/反例”,孩子负责“观点选择、经历细节、最终表达”。
  • 做项目:AI 负责“资料整理、对比表”,孩子负责“研究问题、结论取舍”。

D2|Description(描述):把“模糊想法”翻译成机器能执行的指令

核心能力:清晰表达与结构化沟通。

  • 成熟表现:能写清目标 + 背景 + 限制 + 输出格式,让 AI 少猜。
  • 常见翻车:只会说“帮我写/帮我总结”,得到一堆正确但没用的废话。

一句可抄的描述公式
你扮演谁 → 任务目标 → 我的背景/素材 → 必须包含/禁止出现 → 输出格式(字数/结构/表格/要点)


D3|Discernment(辨析):识别瞎编、偏见、偷换概念

核心能力:证据意识与批判性判断。

  • 成熟表现:把 AI 输出当“草稿/线索”,会核对、会反问、会找原始证据。
  • 常见翻车:看到“像真的”就信,尤其是数据、名词、引用、政策原文。

三连问:把 AI 当证人审讯

  • 证据在哪?有没有可追溯来源/原文?
  • 逻辑通吗?有没有跳步、偷换概念?
  • 适用吗?这结论对“我的题目/我的场景”真的成立吗?

D4|Diligence(审慎负责):隐私、伦理与责任边界

核心能力:安全使用与后果负责。

  • 成熟表现:不上传隐私;清楚署名与引用;知道边界与风险。
  • 常见翻车:把同学信息、家庭隐私、老师评语原文丢进 AI;或把 AI 生成内容当原创提交。

一句底线提醒
你可以用 AI 变聪明,但不能用 AI 变不负责任。


4.一分钟把 4D 变成“可训练”的家庭练习

下次孩子用 AI 写作业/做汇报,你只问四句:

  1. 委派:你这次把什么交给 AI?为什么?
  2. 描述:你的指令写清目标、限制和输出格式了吗?
  3. 辨析:你验证了哪三处信息?怎么验证的?
  4. 审慎负责:有没有涉及隐私/署名/引用?你准备怎么处理?

你会很快发现:
孩子的差距往往不在“会不会用 AI”,而在——能不能把“人类该做的那部分”做扎实。


5.门槛前移:中小学现在可以做什么?

当大学门槛已经位移,中小学再“等等看”,就是把代价推给孩子。更现实的做法是三件事:

1)从“搜答案”转向 Thinking with AI

课堂允许与 AI 对话,但必须训练:拆解问题、追问、对照证据、修正假设——把 AI 当“博学但不靠谱的伙伴”。

2)用“低代码原型”保护孩子的行动力

让十来岁的孩子用无代码/低代码工具,把一个社区问题做成原型:描述需求 → 快速实现 → 迭代改进。重点不是语法,而是把想法落地的能力。

3)教师减负,把精力回归 社会情感学习 与真实观察

AI 可以替老师处理标准化琐碎,但替代不了:关系、情绪、价值、选择。这部分,才是学校德育与成长支持的硬核价值。


写在最后

普渡大学把 AI 能力写进毕业要求,不是“跟风”,而是给未来投了一根路标:教育的围墙在倒塌,竞争的规则在换轴。我们要培养的,不是满分的“答题机器”,而是能在算法丛林里仍然清醒的人:
我该让 AI 做什么;我必须自己做什么;我愿意为哪种后果负责。

© 版权声明

相关文章