撕开AlphaFold的神话:这根本不是AI做出了科学,只是吃了几十亿堆出的数据红利
真正的科学进步从来不靠“验证闭环”。编译 | 王启隆出品丨AI 科技大本营IDrgznai100一个被写进教科书的实验并不一定真能在当时改变世界观一个后来被证明正确的理论也常常不是等到证据全部收口之后才被科学共同体接受。Dwarkesh Patel 在 2026 年 4 月 7 日更新的播客 Dwarkesh Podcast 里对谈量子计算与开放科学研究者 Michael Nielsen把当今科学史里最拧巴、也最容易被讲得过分整齐的问题重新翻了出来。故事从迈克耳孙-莫雷实验开始。按流行叙事这场实验几乎像是直接终结了以太并把爱因斯坦一步步推到了狭义相对论那里。可 Nielsen 提醒真实历史远没有这么直线迈克耳孙本人很多年后仍然相信以太洛伦兹和庞加莱已经摸到了一部分正确结构却没有真正完成那次解释跃迁而更强的实验验证往往要在共同体已经换了世界图景之后才慢慢补上来。这让人想到了 AI 做科学最难的一层。现在很多人谈科研自动化都会自然想到“验证闭环”——实验、反馈、优化只要这一套足够密科学似乎就能被不断推进下去。但 Nielsen 反复指出很多关键理论并不是等到验证闭环彻底收口之后才被接受的相反它们往往是在证据仍然模糊、甚至带有敌意的时候被研究共同体先一步认出来。Michael Nielsen 是一位因量子计算、开放科学和深度学习教材而被广泛认识的研究者与写作者而 Dwarkesh Patel 则是近几年最擅长把一个问题追到根上的科技播客主持人之一。两人这次谈的表面上是爱因斯坦、牛顿、达尔文、AlphaFold 和量子计算真正追问的却只有一个问题人类到底是怎么认出“科学进步”正在发生的要点速览迈克耳孙-莫雷实验并没有像教科书叙事那样直接“逼出”狭义相对论它真正暴露的是科学共同体经常要在并不彻底、甚至互相打架的证据里先做判断。科学进步没有一套可复制、可程序化的统一流程。真正的瓶颈往往出现在旧启发式失效的地方。达尔文的天才不只是“想到自然选择”而是把一个局部直觉做成了贯穿整个生物界的解释框架这也是为什么看似简单的理论并不真的容易被提出来。AlphaFold 的成功首先是一个实验基础设施与数据积累的故事其次才是一个模型故事这也让“AI 算不算在做科学”变得远比表面复杂。对 AI 来说难点不只在能否跑实验而在能否在长期含噪、敌意式、非清晰的反馈中维持多条研究路线并存。科学如何前进和研究共同体如何分配声誉、个人如何真正内化知识是同一件事的不同尺度。为什么说科学进步常常跑在验证闭环前面Dwarkesh Patel今天我想聊的不是你在量子计算、开放科学、深度学习教材这些事情上的工作而是一个更奇怪的问题我们到底怎么识别科学进步这件事对 AI 特别重要因为现在很多人都想闭合科学发现的强化学习验证闭环。但我越准备这场对话越觉得即使回头看人类科学史这件事也比我原来想得更神秘。我想先从迈克耳孙-莫雷实验和狭义相对论讲起。因为教科书里的故事和真实历史好像不是一回事。Michael Nielsen迈克耳孙-莫雷实验通常被讲成 19 世纪 80 年代那场著名实验它逼出了爱因斯坦后来的狭义相对论从而改变了我们对空间和时间的理解。但真实情况和这个流行叙事之间有一个非常大的落差。迈克耳孙、莫雷以及同时代很多人理解这场实验的方式和爱因斯坦后来理解这件事的方式并不是一条直线。爱因斯坦晚年甚至说过他都不确定自己在提出狭义相对论时是否读过那篇论文。即便他当时知道这篇论文它对他的思考也远不是决定性的。迈克耳孙和莫雷真正想测试的是各种不同的“以太理论”。如果追溯到 17 世纪Robert Boyle 提出过一种想法声音是空气中的振动那光会不会也是某种介质里的振动后来人们发现声音不能在真空里传播但光可以于是“以太”就成了一个持续两百多年的问题。所以迈克耳孙-莫雷实验本质上不是“证明以太不存在”而是在不同以太理论之间做区分尤其是测试所谓的“以太风”是否存在。实验结果是没有测到以太风。这的确排除掉了一部分以太理论但远远没有排除全部更重要的是迈克耳孙本人后来一直都还相信以太。Dwarkesh Patel这正是我读 Abraham Pais 那本《Subtle is the Lord》时最震惊的地方。我们平常听到的版本都是迈克耳孙-莫雷证明了以太不存在于是物理学陷入危机爱因斯坦用相对论解决了这个危机。但你的意思是这场实验当时更像是在不同以太模型之间筛选而不是一锤定音。Michael Nielsen对而且这种差别非常重要。1887 年那次著名实验之前迈克耳孙 1881 年就已经开始做这类实验了。后来他一生都在继续做直到 1920 年代末仍然没有放弃以太。还有 Miller 这样的人到了 1920 年代还在高海拔上做实验试图证明自己终于测到了以太风。这说明一件事科学史不是教科书里那种“一个实验证伪一个理论大家立刻换新理论”的故事。所谓证伪在真实历史里远没有那么干净。你以为被证伪的是“以太”可实际上也许只是某一种以太理论另外一些版本还完全活着。Dwarkesh Patel而且你甚至不能从“某一种以太理论被打掉”直接推出狭义相对论。Michael Nielsen当然不能。后来洛伦兹已经写出了参考系转换的数学也就是后来人们所谓的洛伦兹变换。但他对这套数学的物理解释和爱因斯坦不同。他依然把它理解成相对于以太参考系的效应长度收缩、时间膨胀是物体在以太中运动时受到某种动力学影响的结果。真正有意思的是科学共同体往往会在更强验证到来之前就已经开始接受一种新的解释框架。比如后来的 μ 子实验在 1940 年前后才真正更强力地显示“时间膨胀”不是数学小技巧而是某种物理实在。但相对论的共同体接受显然早于这个时间点。所以问题来了如果强验证还没完全到位人类科学为什么还是会往前走Dwarkesh Patel而且这里很吊诡的一点是科学显然确实会进步但你又很难把这个进步过程说成一套预先写好的流程。Michael Nielsen对我其实很警惕“流程”这个词。它暗示有一套事先设定好的步骤好像大家都照那个流程行事。但真实世界不是这样。你会看到洛伦兹、庞加莱、迈克耳孙这样一流的科学家在共同体整体已经开始转向以后仍然长时间留在旧图景里。没有什么中央权威也没有一套中心化的方法告诉大家什么时候该换世界观。科学共同体的前进方式比“流程”这个词暗示的东西复杂得多。Dwarkesh Patel你刚才提到 Poincaré我觉得这是个特别有意思的例子。洛伦兹是数学对了但解释错了Poincaré 似乎是某些概念也摸到了但还是没有真正把门踢开。科学史里总有这种“问题问对了但最后一步没走完”的案例。你觉得这里到底发生了什么Michael Nielsen这种事你真得个案地看。Poincaré 非常惊人。他某种程度上已经理解了相对性原理也几乎理解了光速在所有惯性系中相同这件事。他离爱因斯坦用来推出狭义相对论的那几块拼图已经很近了。但他还有一个多余的误解他把长度收缩理解成一种动力学效应觉得好像粒子在运动中受了外力挤压才导致尺缩钟慢。他没真正跨到那个更激进的想法上——不是东西被“压缩”了而是空间和时间本身就和原先想的不一样。某种意义上他可能是“知道得太多”了。既有知识、既有体系感反而妨碍了他把旧图景一下子整个扔掉。爱因斯坦这里做的反而像是一种减法不再往旧机制上补而是直接说空间和时间就是另一回事。Dwarkesh Patel这其实也让我想到一个更大的问题。你看 Aristarchus 在公元前三世纪就已经提出日心说但恒星视差直到 1838 年才被真正测到。也就是说验证闭环竟然拖了两千年。而且更奇怪的是哥白尼的模型一开始既不更准确也不更简单。他甚至为了保住“匀速圆周运动”这种审美偏好不得不加更多本轮。所以这不是一个“精度更高”或者“形式更简”的故事。那人类凭什么提前知道哥白尼这边更对Michael Nielsen我没有完整答案但我觉得牛顿在这里给了一个很重要的线索。你先是用引力解释了行星运动但随后同一套理论又解释了地面上的抛物运动、月亮和太阳引发的潮汐。原本看起来彼此无关的三个现象被一个框架打通了。这种“统一性”的力量会让一个理论显得非常有说服力。也许它一开始不一定更准但它开始把不同世界缝到一起。牛顿为什么是“最后的魔法师”这对 AI 有什么启发Dwarkesh Patel我很喜欢 Keynes 那篇讲牛顿的文章。他那句名言是牛顿不是理性时代的第一个人而是最后一个魔法师。我很想知道的是牛顿在炼金术和天文学里是不是在用同一套审美、直觉和启发式如果是的话这些东西有没有可能被迁移甚至被编码进 AI因为如果我们暂时做不出科学发现的验证闭环也许至少可以把“好品味”编码进去。Michael Nielsen我觉得这里最关键的一点是人类真正卡住的地方恰恰是旧启发式不再适用的地方。因为人们本来就会把已经有效的方法学得很好、用得很好所以他们不会老是在同一个地方摔跤。真正新的瓶颈定义上就是原来的方法不再管用的地方。所以如果你想把科学还原成一个可以不断转动的手摇曲柄问题就在这里。你当然可以把一部分东西程序化但每到真正重要的瓶颈处那个曲柄就失效了。你需要很多人去尝试不同路径。越难的突破越意味着之前那套现成方法已经不够了。也正因为如此真正的突破一旦发生才显得那么惊人。Dwarkesh Patel也就是说真正的难点不是把已有品味固化而是遇到旧品味失效的时候怎么办。Michael Nielsen对。量子力学就是典型例子。它之所以震撼不只是因为它难而是因为它逼你接受一整套和旧直觉完全不同的东西。进化论某种意义上也是如此真正震撼的并不是“自然选择”这四个字而是这个机制居然能解释那么多东西。Dwarkesh Patel所以如果真要把这套经验迁到 AI 上问题就不是“能不能把一套启发式编成系统”而是系统能不能在启发式失效时还继续往前走。Michael Nielsen对这差不多就是问题的核心。真正困难的地方定义上就是旧方法已经不再够用了的地方。Dwarkesh Patel这也是我对达尔文最困惑的地方。1687 年牛顿发表《自然哲学的数学原理》1859 年达尔文发表《物种起源》。直觉上自然选择似乎比万有引力更容易想到。Thomas Huxley 读达尔文时甚至说过一句非常有名的话怎么会没早点想到这个但没有人会读牛顿时产生这种感觉。所以到底哪里不一样Michael Nielsen我觉得达尔文最重要的地方不是“想到自然选择”本身。人工选择这类想法人类早就隐约知道了至少动物育种者肯定长期知道其中一大块。达尔文真正的天才在于他意识到这个机制对整个生物学有多核心。他把一个局部直觉做成了一个能解释整个生物圈的框架。他不是提出一个点子就停下而是在《物种起源》里堆入大量证据、案例和推演把它跟地质学、生物多样性、环境适应这些问题全部焊到一起。所以他的工作不是“想到了一个想法”而是把这个想法做成了一个能站住的大解释。Dwarkesh Patel我原本是从 Lucretius 开始想这个问题的。他在一世纪时就有一些看起来类似自然选择的想法可为什么这件事后来停了十九个世纪后来我才意识到他那个版本其实和现代自然选择差很多。他更像是设想世界早期有一次性的筛选而不是持续发生的渐进过程也没有真正的生命树概念。还有一个重要背景是“深时间”。如果没有 Lyell 那代地质学家把地球历史的尺度拉开进化论根本没有时间容身。Michael Nielsen对深时间很可能是关键阻碍之一。假如地球历史只有几千年那进化论几乎是不可想象的。你需要至少数千万年、上亿年的尺度这个机制才变得站得住脚。所以一个理论的出现并不只是它在逻辑上能不能被想到还取决于很多前提条件有没有成熟。这也解释了为什么看似“简单”的想法有时会被拖很久。Dwarkesh Patel而且达尔文主义还有一个很有意思的地方它几乎是被 Darwin 和 Wallace 同时独立撞出来的。这意味着某些前置积木到了 19 世纪中叶可能终于都到位了。地质学带来了深时间殖民与航海扩展了生物地理学化石记录慢慢也在补全。似乎很多东西都要同时在场这个理论才真正可能被提出。Michael Nielsen我觉得这个观察很对。Lyell 和其他早期地质学家的工作看起来确实是关键前提。至于是否还有别的阻碍、它原则上还能不能更早被提出我没有确定答案。但“这些条件必须到位一部分”看起来是高度可信的。Dwarkesh Patel所以一个理论“看起来很简单”和它在历史上真的容易被提出完全是两回事。Michael Nielsen对。回头看时你很容易把很多必要前提都视为理所当然。但在那些前提还没有出现之前所谓“简单理论”其实根本没有落脚点。AlphaFold 算不算科学解释AI 又能不能真的自动做科学Dwarkesh Patel如果把话题拉回 AI现在很多人都会拿 AlphaFold 当作一个标志性案例。你怎么看它它到底是一个科学理论、一个科学解释还是别的什么东西Michael NielsenAlphaFold 当然是一个惊人的成功但我想先给这个叙事降一点温。因为 AlphaFold 真正的底座首先是蛋白质结构数据库是 X 射线衍射、核磁共振、冷冻电镜是几十年实验积累是数十亿美元级别的结构测定投入。换句话说这首先是一个长期数据采集和基础设施的故事其次才是模型故事。AI 那一层当然很厉害但它只是整个成功故事的一部分。Dwarkesh Patel但哲学上还是有个问题。像广义相对论这种理论能推出很多它原本没有被设计去解释的现象比如水星轨道近日点进动。而 AlphaFold 更像是一个一亿参数的巨大系统我们很难说它具备同样的解释外延。那这两者是同一种“解释”吗Michael Nielsen我觉得这里至少有三种可能。第一种可能最保守AlphaFold 不是经典意义上的科学解释。按照传统理解真正的解释应该自由参数尽可能少形式尽可能简洁能解释尽可能多的现象。AlphaFold 看上去明显不是那种东西。第二种可能是它不是解释本身但它内部包含了大量可以被挖出来的局部解释。你可以把可解释性看成一种“考古学”在模型内部发掘某些局部结构、规律和策略。像 AlphaZero 之于棋类就已经隐约出现了这种情况。第三种可能最激进也最有意思它其实代表了一种新的解释对象。过去我们没法对这种对象做太多事情现在我们却可以合并、蒸馏、正则化、对它做各种新操作。它不是经典理论但它也不只是黑箱拟合。Dwarkesh Patel我的担心是如果我们只是让模型不断拟合观察数据它有可能只是在托勒密系统上越补越厚。它可能告诉你又发现了一个新的本轮却未必能跳到哥白尼或者爱因斯坦那种全局重构。Michael Nielsen这正说明我们还没有真正掌握怎样和这类模型打交道。我们缺的是新的“动词”。比如你可以试着对模型施加约束强迫它给出更简单的解释或者问它能不能给你一个 90/10 版的说明。也许一开始它提供的是一个非常复杂、多参数的脚手架但后来能在不断蒸馏的过程中把其中某种更有力量的结构逼出来。Dwarkesh Patel但我觉得难点在于有些真正重要的理论跃迁不是局部简化。比如从托勒密到哥白尼或者从牛顿到爱因斯坦你有时候需要做的是全局换框架。这不是简单正则化就能自然完成的。Michael Nielsen对所以你就必须问什么东西会把研究程序逼到必须换框架从牛顿引力到广义相对论一个非常直接的强迫因素是在狭义相对论里因果影响不能超光速传播而牛顿引力却是瞬时作用于距离。那它们之间就是根本冲突的。你一旦意识到这个冲突旧解释就不够了。然后你往往不会一步得到最终答案。你会先有很多中间态很多不够漂亮、不够对的东西。最后完成时理论才显得优雅。但它并不是从第一天开始就这么优雅。Dwarkesh Patel所以如果我们认真想“AI 如何加速科学”也许要区分两类事情。一类是已知问题、局部优化比如蛋白质折叠另一类是像广义相对论这种需要长期保留多套研究程序、慢慢等强迫因素出现的东西。你不能指望只把所有观测喂给一个模型然后希望相对论自己长出来。Michael Nielsen你说到一个很关键的点必须长期维持多条研究程序并存。历史上有很多相似的例子。用牛顿理论解释 Uranus 的异常你最终找到了 Neptune这是巨大成功。但几乎同样的思路拿去解释 Mercury 的异常人们发明了 Vulcan却找不到。你事先并不知道自己是在 Neptune 那一支还是 Vulcan 那一支。所以共同体必须允许很多看起来都合理的路线同时跑很久。研究多样性在这里不是奢侈品而是必要条件。Dwarkesh Patel这也是为什么我觉得“科学有紧密验证闭环”这个说法其实很误导。理论上实验可以验证但相容理论其实永远有无数个。你为什么后来会偏向那个“回头看更对”的版本这件事本身就很难形式化。Lakatos 讲过一个我特别喜欢的例子Prout 在 1815 年提出一个假说认为所有原子核的质量都应该是氢的整数倍。很多元素的原子量看上去确实接近整数但也有一些像氯测出来是 35.5。于是支持这套理论的人就不断发明特设解释也许是杂质也许是分数倍数。后来人们发现问题根本不在理论本身而在于同位素混在一起而同位素不能靠化学手段区分只能靠物理手段区分。也就是说这个验证闭环不只是长它还是敌意式的正确理论会在很久时间里看起来像是错的。Michael Nielsen我觉得这个例子很重要。因为它说明 AI 做科学的难点不只是“能不能更快跑验证”而是剩下的瓶颈到底是什么。AlphaFold 确实解决了一类瓶颈。但这不意味着它会自然解决所有瓶颈。你跟程序员聊也会发现类似情况他们现在不再像过去那样被写代码本身卡住但开始被“有意思的设计想法”卡住。验证闭环并没有消失它只是搬家了。为什么外星文明可能拥有完全不同的技术树Dwarkesh Patel我特别喜欢你一个想法如果有外星文明它们很可能拥有完全不同于我们的技术栈。这和我原来的直觉很不一样。我的本能假设一直是文明发展到一定阶段大家都会收敛到同一套“科学”。Michael Nielsen我越来越觉得科技树比我们通常想象得要大得多。我们并不在树梢而可能还在树根附近。一个我很喜欢的例子是计算理论。丘奇和图灵在 20 世纪 30 年代就给出了非常根本的底层结构但公钥密码学这种极深的想法却是几十年之后才从同一个理论底座里长出来的。后来又长出了区块链、加密货币等一系列东西。也就是说底层原理可能早就有了但上层深结构可以晚很久才被发现。相变、编程语言、信息处理方式可能都是这样。底层物理不变但可探索的高层结构极其丰富。Dwarkesh Patel如果真是这样那意味着不同文明可能沿着完全不同的路径爬同一棵树甚至爬到不同的树枝上。那就意味着长期会存在巨大的贸易增益。Michael Nielsen我觉得这是一个很有意思的推论。但它不只取决于想法。还要看制造能力、制度、交易成本甚至权力结构。我很喜欢的一个思想实验是“外星人的 GitHub”。如果你拿到一个外星文明全部算法和代码的库那里面一定会有很多新思想但我们要把这些思想真正读懂、提取出来恐怕要花极长时间。我想到这一点其实是从蛋白质来的。生物已经给了我们一个巨大的“机器库”里面有数亿种蛋白质。我们今天连血红蛋白、胰岛素这种最经典的对象都还没完全理解。如果你把这个库想成一个外星文明送来的礼物你就会意识到同样受底层物理约束不同路径下仍然可以长出极其丰富、陌生的高层技术对象。Dwarkesh Patel而且这件事还有个挺重要的政治含义。如果不同文明之间真会长期保留巨大的比较优势那友善本身就会变得更有回报。Michael Nielsen这是个很有意思的观察。不过比较优势不是万能咒语。黑猩猩也有某些比较优势但我们并不和黑猩猩建立贸易体系。交易成本、权力不对称、组织方式这些都可能让“理论上的互利”变成现实中的支配关系。所以这个想法很美但它需要很多额外条件成立。Dwarkesh Patel我还想追问一个更大的问题。像诺特定理、丘奇—图灵原理这种级别的深层原理未来还会不断出现吗还是说它们本来就稀有我们已经快把大的都找完了Michael Nielsen我没有证明只能说是直觉。但我长期的直觉是我们不断在已有底座中发现新的基本原语。计算理论就是最典型的例子。你先有了通用可编程设备这种概念后来又挖出公钥密码学再后来挖出分布式账本、加密货币。感觉像同一块地基里不断长出新的深层对象。所以我不太相信“深原理快挖完了”这种想法。Dwarkesh Patel可经验上又有另一种现象。Bloom 那类研究会告诉你维持同样的技术进步速率需要越来越多研究者、越来越多资源。那是不是意味着想法还在但它们越来越难被找到Michael Nielsen首先那些研究通常看的是很窄的赛道、很窄的指标。它们当然抓到了一部分现实但不一定抓到整个知识结构。我更喜欢用“婚礼甜点台”来想这个问题如果台上的甜点固定不变最好吃的当然会先被拿走后面只会越来越差。但科学不是一个静态甜点台它后面有人不断补新甜点。新领域会冒出来新工具会出现新制度会改变整个游戏。所以静态看你确实可能感受到递减回报动态看却可能不断有新低垂果实被创造出来。Dwarkesh Patel这其实也能帮助理解量子计算。它为什么不是 1950 年代就出现而是到 1980 年代才真正成形Michael Nielsen我觉得原因很平常但也很真实两类前提差不多在同一个时期成熟了。一方面计算本身在 70 年代末、80 年代初突然变得非常显眼。你可以买到个人电脑、Apple II、Commodore 64计算不再只是抽象理论而成了很多人日常可感的对象。另一方面在量子实验那边单量子态操控也开始真正成熟。Paul trap 之类的进展让人第一次能认真想“如果把量子态当作计算对象会发生什么”。所以量子计算不是简单靠天才拍脑袋从天上掉下来的它是问题意识和实验条件同时成熟的结果。Dwarkesh Patel那你自己为什么会那么早进去Michael Nielsen很大程度上是运气和品味。我 1992 年上了一门很好的量子力学课课后去找 Gerard Milburn 要材料他给了我一大摞论文里面有 Feynman、Deutsch 那些最基础的量子计算论文。读完之后你就会有一种感觉这里有非常根本的问题而且这里的工作量对一个年轻人来说又是可处理的。你会觉得这是个值得挖的坑。某种意义上这就是“后续研究市场”的运作方式。一篇深论文出来之后总会有人觉得这里还有很多东西没挖完我要继续挖下去。开放科学、声誉分配与集体科学今天卡在哪里Dwarkesh Patel我们再跳到你长期做的另一个方向开放科学。你现在怎么看它它算成功了吗Michael Nielsen有一个很朴素的成功标准二十年前你必须先解释什么叫开放科学今天大多数人已经知道这个词了。人们至少会把它和开放获取、开放代码、开放数据这些事情联系起来。这本身已经是很大的成功。但我觉得更深的问题是科学的声誉经济。现代科学体系本质上是围绕论文和署名建起来的。你公开论文别人承认这是你的工作于是形成一种声誉经济进而支持你的职业路径。到了数字时代我们已经可以共享代码、数据、进行中的想法但这些东西对应的声誉机制并没有自然长出来。你该为共享数据拿多少声誉共享中间想法应不应该得到声誉这些都是社会建构的问题。Dwarkesh Patel也就是说开放科学真正难的地方不只是“技术上能不能开放”而是“制度上怎么给声誉”。Michael Nielsen对。一个很有意思的例子是预印本文化。以前我会问物理学家和生物学家为什么物理界盛行预印本而生物界长期不这样做。生物学家会说生物竞争太激烈了我们必须保护优先权所以不能先发预印本物理学家则会说物理竞争太激烈了我们必须尽快上传预印本才能抢先确立优先权。同样一个“竞争太激烈”的理由可以支撑完全相反的制度。这就说明声誉归属经济本质上是人们共同构造出来的。Dwarkesh Patel那集体科学呢有没有哪个例子最能说明“很多重要进展不是一个人懂完全部逻辑才完成”的Michael NielsenLHC 是个很好的例子。真正理解大型强子对撞机相关工作的所有层次——探测器、真空系统、逆问题、数据处理、量子场论——对一个人来说几乎不可能。你可以高层理解很多东西但不可能在深度上同时掌握全部细节。这也是为什么会出现一篇论文一千多个作者。那不是形式主义而是因为集体科学真的在深度上超出了单个人的认知带宽。做研究的人怎样处理高产、深度与真正内化的问题Dwarkesh Patel最后我想问一个更个人的问题。怎么平衡高产与深度有些人像达尔文感觉在一个问题上孕育几十年但也有像爱因斯坦这样的人在 1905 年一个年份里像同时打开了好几条线。Michael Nielsen这是我自己也很焦虑的问题。我会把创造性工作粗分成两种。一种是例行工作。在这类工作上你就应该尽量消灭拖延尽量变快能外包就外包。另一种是高方差工作你必须允许自己花很多时间、去很多地方、跟很多人聊、做很多最后可能都不进最终成果的事。很多人会偏其中一种要么特别擅长高效率要么特别擅长漫长孕育。但真正难的是在两者之间找到平衡。我以前在旧金山工作时会故意每天走更长、更好看的那条路去上班。部分是因为风景好但还有个作用提醒自己不是所有事情都该被效率原则统治。Dwarkesh Patel我最近越来越在意的另一件事是怎样才能真的把学到的东西学进去。做播客很容易产生一种错觉——我和很多顶级专家聊过所以我应该更懂了。但事实上完全可能没有。一个话题今天聊完过两周就蒸发了。我现在最担心的是自己在很多主题上只是积累了某种“看起来懂”的表层理解但没有真正钉住。Michael Nielsen我觉得这里真正关键的是高要求情境也就是更高要求的环境。很多东西之所以留下来不是因为你看懂了而是因为你在写、在教、在做项目、在解题、在被更高标准逼着交付。你必须在一个真正高要求的情境里被迫拿出创造性产物——一篇文章、一门课、一个项目、一个系统。我自己的经验是真正学进去的东西通常都伴随着长时间卡住。以前我觉得卡住很烦现在反而觉得那可能是整个过程里最重要的一部分。因为正是这种艰难赢下来的过程让知识最后被你内化。Dwarkesh Patel这其实也很像你前面说的科学本身。不是因为验证闭环顺滑所以才发生进步而是很多时候恰恰因为它不顺滑人才被逼着形成更深的理解。Michael Nielsen对我觉得这是同一件事的两个尺度。一个发生在文明层面一个发生在个人层面。当你问“科学是怎么进步的”某种意义上你也在问“人到底是怎么学会真正理解一件事的”以上节选整理自 Dwarkesh Patel 与 Michael Nielsen 的对话。完整原文链接https://www.dwarkesh.com/p/michael-nielsen投稿或寻求报道zhanghycsdn.net推荐阅读马斯克最新对话AI 毁灭人类的概率有 20%但它将创造一个没有钱的“全民高收入”时代华人辍学博士揪出Claude Code 51万行源码泄露官方请求下架超8000个GitHub代码库并回应这次是人为失误无人被解雇仅花16小时、成本不到7元把Mac爆改成“触摸屏”不用AI、不改硬件他们用一个镜子解决一切【活动分享】48 小时与 50 位大厂技术决策者共探 AI 落地真路径。由 CSDN奇点智能研究院联合举办的「全球机器学习技术大会」正式升级为「奇点智能技术大会」。2026 奇点智能技术大会将于 4 月 17-18 日在上海环球港凯悦酒店正式召开大会聚焦大模型技术演进、智能体系统工程、OpenClaw 生态实践及 AI 行业落地等十二大专题板块特邀来自BAT、京东、微软、小红书、美团等头部企业的 50 位技术决策者分享实战案例。旨在帮助技术管理者与一线 AI 落地人员规避选型风险、降低试错成本、获取可复用的工程方法论真正实现 AI 技术的规模化落地与商业价值转化。这不仅是一场技术的盛宴更是决策者把握 2026 AI 拐点的战略机会。