什么是AI素养呢?如果我们只教孩子“怎么写提示词(Prompt)”,那本质上还是在教“怎么操作一个工具”。
真正的AI 素养(AI Literacy),更像三件事:
理解它如何得出答案、看见数据与偏差、在关键决策里坚持人的价值与责任。最近,Google Research 与斯坦福大学(Stanford Accelerator for Learning)联合推出的AI Quests——
AI 素养不必靠说教,它可以靠“体验”。
沉浸式体验:在游戏里拯救世界
AI Quests 不是那种“点开视频—记笔记—做选择题”的在线课。
它更像一场大型沉浸式闯关:孩子进入一个世界观,化身“AI 研究团队”的一员,在“Skye 教授”等角色的引导下,面对一个现实世界的问题——你必须做出选择,然后承担后果。目前公开的首个任务聚焦洪水预测:
你要从海量气象数据中筛选有效信息、处理数据质量问题、训练与测试模型、选择评估指标,然后看模型在真实情境里“到底靠不靠谱”。更有意思的是:官方也透露了后续关卡的灵感方向,可能会来自诸如——
- 公共健康与疾病预测(AI 如何辅助判断风险)
- 野生动物/生态保护(识别与追踪如何帮助保护濒危物种)
- 医学影像相关议题(例如视网膜病变筛查等方向)
你会发现,它不是把 AI 当“工具课”,而是把 AI 放回“真实问题”里。
最让教育者惊喜的一点:无代码(no-code)环境。
孩子不需要写一行代码,却能完整经历“模型训练—测试—迭代”的过程。
这就是典型的“做中学”:孩子不是被告知“数据很重要”,而是亲眼看到——
数据一偏,结论就偏;指标一换,判断就换。
这条学习路径,和我们期待的跨学科(STEAM/项目化学习)天然契合。
它到底在教什么:不是“会用 AI”,而是“会判断 AI”
很多所谓 AI 课程,最后教成了“技巧合集”。
AI Quests 的高级之处在于:它把 AI 素养拆成了孩子能理解、能体验的三块“硬骨头”。1)数据:AI 不是聪明,是“喂出来的”
孩子会经历:哪些数据能用?哪些数据会误导?缺一类数据会发生什么?
他们会第一次真正理解:
AI 的边界,不在模型,而在数据。
2)评估:你怎么定义“好”,AI 就会朝哪里跑
孩子会发现:
同一个模型,用不同指标评估(比如追求总体准确 vs 追求少漏报),结果可能完全不同。
这会逼着他们思考:
技术不是中立的,标准背后是价值选择。
3)偏差与责任:出事了,不能甩锅给 AI
当模型用于真实世界,谁会受益?谁可能被忽略?
“看起来更准”的方案,是否带来更大的风险?
孩子会理解一句极重要的话:
AI 输出可以由机器生成,但责任永远在人类手里。
这三块,才是未来孩子真正需要的底层能力。
家长怎么用
很多家长最头痛的是:
说多了像唠叨,不说又怕孩子走偏。
AI Quests 特别适合用“少讲、多问”的方式做亲子共学。Step 1:孩子玩,你只做提问者(10-15 分钟)
三问就够:
1)你刚刚做了什么选择?为什么?
2)你觉得哪里最不确定?
3)如果错了,会影响谁?Step 2:迁移到日常 AI 使用(10 分钟)
拿孩子最常用的两个场景:
- AI 写作业/写作文:你怎么验证?
- 短视频推荐/购物推荐:它为什么推这个?它漏掉了什么?
Step 3:写一句“我的 AI 使用说明书”(5 分钟)
模板:
当我看到 AI 的答案,我会先检查____(来源/数据/范围),再决定____(采用/验证/补充)。
家长会明显看到:孩子开始从“追答案”变成“会提问”。
AI 素养要靠“体验+复盘”才能真正长出来——欢迎把这篇文章转给更多老师和家长。
也欢迎你在评论区告诉我:你更想把它用在班会/综合实践/科学融合/亲子共学的哪一种场景?
© 版权声明
文章版权归作者所有,未经允许请勿转载。
