好奇心重要,但也容易丢

熊猫办公

没,没想到答案,就不要寻找题目——《笑忘书》,林夕,2000

那天我向 Claude 问一件事。话说到一半,我突然意识到,我已经知道我想看到什么样的答案。我不是在探索未知,只是在等一段话被生成。这段话往往够工整,能说得通,能交差。而这件事已经在我心里关闭了,剩下的只是输出一段文本,来一个 Closure。意识到这件事的那个瞬间,冒出来的是个分类:“问问题”和“追问”是两件事。我在做的是前者。而追问,已经有段时间没想起过了。又想了一下,觉得这个问题可能挺严重的。

好奇心重要,但也容易丢

普林斯顿大学科学和技术历史学教授 D. Graham Burnett 在《纽约客》的一篇长文里预测:再过五年,历史学者用传统模式撰写专著将变得意义不大,因为 ChatGPT 等等 AI 可以一键无限生成。“五年”这个窗口我觉得可能有点保守,不过他指向的方向我相当认同:当所有可能性都可以快速变成实体,当我们几乎可以“言出法随”时,重点就变成了能不能问出那个真正重要的问题。提问的精度即判断力的指纹。一个能精确说出“我已经试过 A,观察到 B,但预期是 C”的人,和一个直接说“救命!我的电脑黑屏了”的人,在专家眼中——和在 AI 眼中——的可信度差出两个数量级。客观地说,这不是因为前者更聪明,是因为问题里包含了他对问题的理解,和自己对解决问题付出的努力。问题的精度等于思考的精度。当答案变得便宜,问题就成了认知系统里唯一保留判断力的环节。(当然,主观地说,后者就是蠢。)Burnett 在同一篇文章里给出了一个更深的判断:作为人,不是拥有答案,而是拥有问题——并与之共存;而机器无法做到这一点。“与问题共存”这句话听起来带点浪漫主义色彩,但 Burnett 实际上在做精确的能力描述。这种能力不是指生成一个结尾带问号的句子,也不是攒一柜子“我感兴趣的话题”;它指的是一种状态:在没有获得答案的情况下,仍然能让一个问题在你心里活着,不急于追求一个看起来像是答案的东西,然后把这个问题关闭。即,生活在不确定中。AI 训练的全部素材是人类已经写过的话,所以它擅长重组人类说过的话;好奇心是愿意停留在‘人类还没说过的话’那里。它是由内而外生发出来的,而不是从外而内灌输进去的。《周易》蒙卦的卦辞写得更早:匪我求童蒙,童蒙求我。教育的方向不是教育者向蒙昧者灌输,而是蒙昧者主动求教。好奇心首先是一个位置——求的位置,不是被给的位置。这也就是说,好奇心是不能被教授的。好奇心重要,但也容易丢什么是好奇心不过,可以给个定义:好奇心是追问事物为什么是现在这个样子,并推着假设去测试边界的能力。Alexander Fleming 之所以发现青霉素,是因为他没有直接扔了看起来不对劲的培养皿:他注意到了,然后问了个为什么。这种直觉式的追问,在生物学上有神经基础,但在计算机科学上仍然没有对应实现。也就是说,AI 可能不会好奇。当然,许多人也不会好奇。有一种常见误解,是把好奇心当成天生气质。这个理解几乎肯定是错的。Burnett 在描述教育的本质时给过一个更深的措辞:教育的本质是“非强制的欲望重塑”,即帮一个人想要做他真正应该做的事,而不是强制他记忆和复制。这把好奇心定位得很准:它属于欲望,不属于性格。而欲望可以被激活,也可以被腐蚀。具体一点说,AI 协作里好奇心的形态不是“我对世界保持开放”那种空话,它分布在三个层级。句子级——读到 AI 的某一句结论时,你愿不愿意停下来问“这一句的依赖前提是什么”。段落级——一段输出读完之后,你愿不愿意问“这段论证有没有跳过中间步骤”。流程级——做完一件事之后,你愿不愿意复盘“我刚才用 AI 做这件事,整体上是在解决问题,还是在装作解决问题”。这三个层级的追问能力是分开的,可以单独萎缩。加州大学伯克利分校的一项研究显示,好奇心激活的是大脑中与奖励相关的多巴胺系统,同时激活海马体,产生一种“漩涡效应”:当你真正想搞明白一件事时,你不只记住了你追问的内容,连周边信息也一并被强化记忆了。这意味着,好奇心其实是一种高效的认知放大器。同一研究还发现,15 岁青少年的好奇心测量值系统性低于 10 岁时的水平。不是因为他们长大了就“天然变得无聊”,而是因为一套以正确答案为目标的教育体系,在逐步消磨追问的动机。好奇心重要,但也容易丢AI 如何促进好奇心萎缩当 AI 帮你写完一段能跑通的代码,或者帮你写完一份能交差的方案,你获得的反馈是“搞定了”。但完成不等于校准。在今天的 AI 能力下,你已经无法分清这一次成功有多少来自你、多少来自 AI。在过去你做这件事会自然产生“我哪里没想清楚”的不安,那种不安就是好奇心的原始动力来源;而 AI 提供的流畅完成体验,恰好是这种不安的麻醉剂。皮亚杰区分过两种学习方式:同化和顺应。同化是把新事物装进旧框架——快速、节能、稳定,是大脑的默认模式。顺应是为新事物新建一个框架——慢、费力、需要承认旧框架不够用。而 AI 的输出几乎总是按你已有的框架组织信息。它会适应你。这让同化变得格外容易,让顺应变得格外难启动。会有人提出反例:用 AI 用得多了,反而问题更多了,这怎么会是萎缩?这条反例需要看是哪一层的问题。像是“这段代码为什么报错”“这个 API 怎么调”这类微观层面的追问确实在增加,AI 让它们变得便宜。但回到上面那三个层级——句子级的依赖前提、段落级的中间步骤、流程级的“我是不是在装作解决问题”——它们被绕过的概率会随 AI 用得越多而上升。颗粒度不一样,结论就完全不一样。好奇心重要,但也容易丢AI 都需要好奇心还有一个让人需要停一下的反向论据。AI 工程界自己已经在重新发明好奇心。《Agentic Design Patterns》第 21 章的主题就是 AI 智能体的“探索与发现”能力。Google Co-Scientist 这类系统被反复强调的不是替代人类研究,而是与科学家形成“科学家在环”的协作。它的端到端验证案例之一是发现肝纤维化的新表观遗传靶点。这意味着工程师们清楚一件事:一个只会在已知答案空间内插值的系统,无法处理真正开放的问题;必须给它注入“主动进入陌生领域、生成新知识”的机制。这个事实有点讽刺。如果人类把好奇心丢掉,等于把自己降到比当代 AI 工程目标还低的层次,变成一个只在已知答案空间内插值的人,或者用现在的网络流行语来说:NPC。这个图景没什么浪漫色彩,它只是不太体面。回到开头那一刻——我意识到自己其实是在等 AI 把一个心里已经备好的答案取出来。那一刻关掉的,是与问题共存的耐心。好奇心之所以会在 AI 时代变成一种重要品质,不是因为它浪漫,也不是因为它“难以被替代”。它的重要性在于:它是一切新知识的上游,是唯一保留判断力的杠杆。AI 不需要和问题共存的耐心,也不会替你保存它。所以,要么自己每天用一点,要么慢慢忘了它的形状。

© 版权声明

相关文章