赋予LLM规划能力的关键在于CoT、ToT、GoT三种方法。CoT通过在prompt中添加“请一步步思考”来显式化推理过程ToT则通过同时探索多条推理路径并评估选择最优路径来避免走错方向GoT则引入图结构允许不同路径的中间结果合并复用更适合复杂任务。工程实践中CoT成本低且效果显著是首选方案ToT成本较高但准确率提升明显GoT目前仍处于学术研究阶段工程落地较少。掌握这三种方法让你的LLM在面试中脱颖而出百度面试官推了推眼镜语气严肃来说说核心问题如何赋予 LLM 规划能力‍♂️我脑子一懵瞎凑答案呃…规划能力不就是让它多思考一会儿嘛给它多加点时间让它慢慢想就能规划了呗百度面试官语气瞬间拔高当场怒斥这叫什么回答完全没说到点子上LLM的规划能力是靠具体方法实现的不是靠“慢慢想”别瞎糊弄好好说专业的‍♂️我慌得手心冒汗连忙认错对不起面试官我错了我混淆了思路现在就结合具体方法好好跟您说清楚怎么赋予LLM规划能力面试踩雷预警瞎答只会被面试官当场怼这道百度高频真题核心是吃透CoT、ToT、GoT三种核心方法下面拆解每种方法的原理、用法和工程选型。 简要回答CoT、ToT、GoT 这三种我都了解过给 LLM 加规划能力主要靠这几种思路。CoT 是让 LLM 把推理步骤写出来线性地一步步推导到答案ToT 是让它同时探索多条推理路径选最优的继续深入GoT 是图结构推理推理节点可以复用和合并适合更复杂的任务。工程上我用 CoT 最多因为实现成本最低就是改个 promptToT 效果更好但调用次数多成本大概是 3 到 5 倍GoT 目前还比较学术生产环境我没见过有人真正落地用的。 详细解析要理解为什么需要规划能力先看 LLM 在没有任何规划机制时是怎么运作的。普通的问答模式下LLM 接到一个问题就直接「一口气」生成答案中间没有任何推理过程。这对简单问题没啥大问题但遇到需要多步推导的任务就很容易翻车。比如让它做一道需要 3 步推导的逻辑题如果直接让它给答案出错概率会远高于让它把每步都写出来。背后的原因是 Transformer 的 next-token 预测机制每个 token 是基于前面所有 token 生成的推理链越长、隐式的跳步越多误差就越容易在中间某一步悄悄累积最后给出一个看起来很自信但其实是错的答案。「规划能力」要解决的就是这个问题把 LLM 隐式的推理过程显式化让它不再是「一步跳到答案」而是「一步一步推到答案」每步都有迹可循。CoT、ToT、GoT 是这个方向上依次演进的三种方案每一个都在解决前一个的局限性。CoT最简单的激活方式加一句话就够了CoT 的全称是 Chain of Thought思维链核心思路极其简单在 prompt 里加一句「请一步步思考」LLM 就会把推理过程逐步写出来而不是直接蹦出答案。为什么这么简单的改变就有效本质是因为 LLM 的输出是顺序生成的当它先输出推理步骤这些推理内容会进入上下文影响下一个 token 的生成。换句话说「写下来的推理过程」本身就成为了后续生成的依据帮助 LLM 不跳步、不乱想。就好比你在纸上演算数学题把每一步写出来之后下一步出错的概率会比在脑子里算要低得多原理是一样的。CoT 有两种触发方式。第一种叫 Zero-shot CoT就是直接在 prompt 末尾加「让我们一步步思考」LLM 自己展开推理不需要额外例子第二种叫 Few-shot CoT给几个带有完整推理过程的例子让 LLM 模仿这种推理格式来回答新问题效果通常更稳定。CoT 的局限很明显它只有「一条推理路径」。如果一开始走错了方向整条链就歪了没有任何纠偏机制。ToT从「一条链」到「一棵树」解决走错方向的问题ToT 的全称是 Tree of Thoughts思维树针对的正是 CoT「一旦走错就全错」的问题。核心改变是把「生成一条推理链」变成「同时探索多条推理路径边探索边剪枝最终选出最优路径」。用一个生活类比来理解CoT 像你做题时只想了一个解法一路做到底ToT 像你先想了三种可能的解题思路评估了一下哪种最靠谱选了最好的那条继续深入另外两条直接放弃。ToT 的执行流程可以分三步来理解。首先是生成多个候选思路让 LLM 针对同一个问题给出 3 个不同的初步方向而不是只走一条路。然后是评估每个思路的可行性用另一个 LLM 调用或同一个 LLM 带上评估 prompt给每个思路打分判断哪个最有希望。最后是选优继续深入、剪掉差的只保留分数高的思路再展开下一层推理反复循环直到得出最终答案。这个「生成 - 评估 - 剪枝」的循环让 LLM 不再是「一条道走到黑」而是有了探索多条路、选好的走、发现走错了还能回头的能力。代价也很明显原来 CoT 一次生成就搞定ToT 需要多次 LLM 调用多条路径 × 多层深度 × 每层还要评估成本是 CoT 的 3-5 倍甚至更高。GoT从「树」到「图」解决推理结果不能复用的问题GoT 的全称是 Graph of Thoughts思维图是在 ToT 基础上再进一步的进化。ToT 虽然引入了多路径探索但它是树形结构不同分支之间完全独立两条推理路径上的中间结论无法互相借用。GoT 把推理结构换成了图允许不同路径的中间结果合并、复用也就是说一个推理节点可以接收来自多个前置节点的输出作为输入。举个具体例子如果任务是「分别研究竞品 A 和竞品 B然后做综合对比分析」。ToT 里研究 A 和研究 B 是两条独立的路径各自得出结论但「综合对比分析」这一步需要同时用到两条路径的结论在树形结构里很难自然表达因为树的每个节点只有一个父节点。GoT 的图结构允许把「研究 A 的节点」和「研究 B 的节点」的输出汇聚到「综合对比分析节点」这种「多个中间结论合并输入到下一步」的操作在图里是一等公民表达起来非常自然。GoT 能建模的推理模式比 ToT 更丰富也更接近人类实际处理复杂任务的思考方式。但落地复杂度很高目前主要还是学术研究场景生产环境里极少见到真正用起来的。三者的演进关系把这三者放在演进视角里看逻辑非常清晰。CoT 解决了「要不要把推理显式化」的问题答案是要把过程写出来就能显著减少跳步出错。ToT 解决了「走错方向怎么办」的问题答案是先多探索几条路边走边评估边剪枝。GoT 解决了「不同推理路径的中间结论能不能复用」的问题答案是把结构从树换成图自然支持结论汇聚与复用。每一步都是在前一步的基础上发现局限、针对性改进。工程上怎么选CoT 几乎是所有任务的标配加一句话、零成本直接加到 system prompt 里就行。ToT 在准确率要求很高、任务比较复杂的场景值得考虑但要做好调用成本增加 3-5 倍的心理准备。GoT 目前工程落地不成熟主要了解它的思想即可真实项目里不必强行引入。假如你从2026年开始学大模型按这个步骤走准能稳步进阶。接下来告诉你一条最快的邪修路线3个月即可成为模型大师薪资直接起飞。阶段1:大模型基础阶段2:RAG应用开发工程阶段3:大模型Agent应用架构阶段4:大模型微调与私有化部署配套文档资源全套AI 大模型 学习资料朋友们如果需要可以微信扫描下方二维码免费领取【保证100%免费】配套文档资源全套AI 大模型 学习资料朋友们如果需要可以微信扫描下方二维码免费领取【保证100%免费】