Cursor、Claude Code、Amazon Q、Windsurf… 2026 年 AI Coding 已经卷成红海。但你有没有想过这些工具到底是怎么工作的本文基于Amazon Q Developer CLIRust 实现和Claude CodeTypeScript Python两个已开源项目的源码从架构层面拆解 AI Coding Agent 的核心设计。看完你会明白为什么这些工具能写代码、能改文件、能跑命令——以及它们是如何在「给 AI 放权」和「不让 AI 搞破坏」之间做平衡的。1 先搞清楚一件事AI Coding ≠ 聊天机器人很多人以为 AI Coding 工具就是 ChatGPT 套了个 IDE 的壳。大错特错。聊天机器人只能「说」AI Coding Agent 能「做」。区别在哪Tool Use工具调用。当你让 Claude Code 帮你改一个 bug 时背后发生的事情是这样的 你「帮我修一下 src/app.js 里的 bug」⬇️ LLM 思考我需要先看看这个文件 LLM 输出工具调用fs_read(src/app.js)⬇️⚙️ Agent 执行读取文件内容 → 返回给 LLM⬇️ LLM 思考找到 bug 了第 42 行有问题 LLM 输出工具调用fs_write(src/app.js, ...)⬇️⚙️ Agent 执行修改文件 → 返回结果⬇️ LLM「搞定了问题出在…」这个过程叫Agent Loop智能体循环是所有 AI Coding 工具最核心的设计模式。关键概念LLM 不直接操作你的电脑。它通过结构化的 JSON 请求告诉 Agent「我想做什么」Agent 验证权限后代为执行。这样所有操作都可审计、可拦截、可回滚。2 Agent Loop一个精巧的状态机Amazon Q CLI 在 Rust 里实现了一个显式的有限状态机来管理整个 Agent 循环▲ Agent Loop用户输入 → Prompt → LLM → 流式解析 → 工具执行 → 循环▲ 6 种状态的有限状态机Idle → ExecutingRequest → ExecutingHooks → WaitingForApproval → ExecutingTools → 循环这个状态机看起来简单但有几个精妙之处循环是自动的—— LLM 调用工具后结果会自动注入对话并再次调用 LLM直到 LLM 决定停下来。你跟它说「帮我重构这个模块」它可能会连续调用 20 多次工具才停下。⚡工具可以并行执行—— LLM 一次可以返回多个 tool_useAgent 用 Tokio 的 FuturesUnordered 并行执行然后打包所有结果一起发回。️每次工具调用都过权限检查—— Allow 直接执行Ask 弹出确认Deny 直接拒绝并告诉 LLM 原因。3 工具系统AI 的「手和脚」AI Coding Agent 的能力上限完全取决于它有哪些工具。来看 Amazon Q CLI 的内置工具集▲ LLM 一次返回多个 tool_use → TaskExecutor 并行执行 → 打包结果发回 LLM工具描述的艺术这里有一个很多人不知道的细节工具的 description 不是给人看的文档而是给 LLM 看的行为指令。它的质量直接决定 Agent 的表现。比如 ExecuteCmd 的描述里写着这段描述的目的是引导 LLM 优先使用 FsRead/FsWrite 等专用工具而不是什么都用 bash 命令——因为专用工具更安全、更可控。⚠️这是 Prompt Engineering 最被低估的领域工具描述的措辞差异可以让 Agent 的行为从「靠谱」变成「灾难」。一个写得好的 description 比调整模型温度有用 10 倍。__tool_use_purpose让 AI 「三思后行」Amazon Q CLI 有一个精妙的设计——每次工具调用都强制 LLM 填写一个 purpose 字段这个字段的作用① 用户能看到 AI 为什么做这个操作② 迫使 LLM「思考」后再行动减少无意义的调用③ 所有操作都有审计记录。4 安全模型四层纵深防御给 AI 能力越大安全就越重要。Amazon Q CLI 实现了四层安全架构▲ Amazon Q CLI 四层纵深防御Hook → 用户确认 → 路径权限 → 工具白名单其中路径权限是最有意思的一层所有路径都会先做canonicalize规范化处理防止用../这种路径穿越攻击绕过权限。Claude Code 这边则用 Hook 实现了声明式安全策略自动检测 9 种常见安全风险命令注入、XSS、eval() 滥用、SQL 注入、硬编码凭证等等。5 Context Window 管理最核心的稀缺资源这是 AI Coding 和传统软件最大的架构差异。▲ 五层 Prompt 架构System Prompt → Context Entries → Tool Specs → 对话历史 → 用户消息传统软件的瓶颈是 CPU、内存、IO。AI Coding 的瓶颈是Context Window—— LLM 一次能处理的 token 上限。超了就「失忆」之前的对话全忘了。Amazon Q CLI 用了四个策略来管理这个稀缺资源1自动压缩Compact—— 当上下文溢出时调用 LLM 对历史对话生成摘要。200K tokens 的历史压缩成 2K tokens 的摘要 最近 20 条消息。2消息截断—— 读取大文件时只保留前 10000 字符附带...truncated提示。3历史裁剪—— 保留最近的消息删除最早的。但要维护结构完整性不能破坏 tool_use/tool_result 配对。4资源文件限制—— 自动包含的资源文件不超过 10KB。 Amazon Q CLI 的终端提示符会实时显示 Context Window 使用率[default] 42% _→ 正常[default] 85% ! _→ 警告该 /compact 了6 MCP 协议工具扩展的事实标准两个项目都采用了MCPModel Context Protocol作为工具扩展协议。MCP 正在成为 AI Coding 领域的事实标准。简单说MCP 就是 AI Agent 调用外部工具的「USB 接口」▲ MCP 协议AI Agent 通过 JSON-RPC 与 MCP Server 通信McpManager 用 Actor 模型管理多个 ServerAmazon Q CLI 用 Actor 模型管理多个 MCP Server —— 每个 Server 是一个独立的 Actor通过消息通信支持独立的连接管理、错误恢复和工具发现。这意味着你可以用任何语言写一个 MCP Server定义自己的工具比如查数据库、调内部 API、操作 K8s 集群然后任何支持 MCP 的 AI Agent 都能用。7 插件体系Claude Code 的五维扩展Claude Code 定义了 5 种正交的扩展点每种解决不同的需求▲ 五种扩展点 Hook 事件生命周期最有意思的是feature-dev插件的 7 阶段工作流展示了 Agent 编排的最佳实践。注意 Phase 2 ——并行启动多个子 Agent去探索不同的代码路径这就是 Multi-Agent 协作在实际产品中的落地。8 两个项目的架构对比维度Amazon Q CLIClaude Code语言Rust系统级性能TypeScript Python架构单体 Agent Actor 并发核心引擎 插件生态并发Tokio async ActorNode.js 事件循环 子进程扩展MCP Hook 脚本5 维插件体系状态SQLite 持久化文件系统 会话状态优势性能、类型安全、编译时保证开发效率、生态丰富、灵活性一个走性能路线一个走生态路线。但核心范式完全一致LLM Agent Tool Use Streaming Safety MCP。▲ Rust vs TypeScript 两种技术路线的详细对比▲ 流式处理全链路LLM API → StreamParseState 增量解析 → 实时渲染/工具执行 → 终端 UI9 七大设计原则总结原则 1LLM 是大脑工具是手脚LLM 不直接操作系统通过结构化的 Tool Use 间接操作。所有操作可审计、可拦截、可回滚。原则 2流式处理优先不等完整响应增量解析 实时渲染。用户体验接近实时对话。原则 3安全是架构级关注点权限不是事后补丁而是从工具定义到用户确认的完整链路。原则 4Context Window 是稀缺资源所有设计都围绕「如何在有限窗口内塞入最有价值的信息」。原则 5工具描述即 Prompt工具的 description 直接决定 Agent 选择和使用工具的方式。原则 6MCP 标准化工具生态统一的工具接口协议支持跨 Agent 复用。原则 7状态机驱动对话管理不是简单的一问一答而是带有明确状态转换的有限状态机。写在最后AI Coding 看起来像魔法但拆开看本质就是一个循环 一堆工具 一套权限。理解了这些底层原理你会发现 为什么有时候 Agent 会「失忆」—— Context Window 满了 为什么它有时候不用最好的方法 —— 工具描述引导不够好 为什么不同工具的「手感」差很多 —— 状态机和错误处理的精细度不同 为什么 MCP 这么重要 —— 它是工具生态的 USB 接口普通人如何抓住AI大模型的风口领取方式在文末为什么要学习大模型目前AI大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 大模型作为其中的重要组成部分 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 为各行各业带来了革命性的改变和机遇 。目前开源人工智能大模型已应用于医疗、政务、法律、汽车、娱乐、金融、互联网、教育、制造业、企业服务等多个场景其中应用于金融、企业服务、制造业和法律领域的大模型在本次调研中占比超过30%。随着AI大模型技术的迅速发展相关岗位的需求也日益增加。大模型产业链催生了一批高薪新职业人工智能大潮已来不加入就可能被淘汰。如果你是技术人尤其是互联网从业者现在就开始学习AI大模型技术真的是给你的人生一个重要建议最后只要你真心想学习AI大模型技术这份精心整理的学习资料我愿意无偿分享给你但是想学技术去乱搞的人别来找我在当前这个人工智能高速发展的时代AI大模型正在深刻改变各行各业。我国对高水平AI人才的需求也日益增长真正懂技术、能落地的人才依旧紧缺。我也希望通过这份资料能够帮助更多有志于AI领域的朋友入门并深入学习。真诚无偿分享vx扫描下方二维码即可加上后会一个个给大家发【附赠一节免费的直播讲座技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等欢迎大家~】大模型全套学习资料展示自我们与MoPaaS魔泊云合作以来我们不断打磨课程体系与技术内容在细节上精益求精同时在技术层面也新增了许多前沿且实用的内容力求为大家带来更系统、更实战、更落地的大模型学习体验。希望这份系统、实用的大模型学习路径能够帮助你从零入门进阶到实战真正掌握AI时代的核心技能01教学内容从零到精通完整闭环【基础理论 →RAG开发 → Agent设计 → 模型微调与私有化部署调→热门技术】5大模块内容比传统教材更贴近企业实战大量真实项目案例带你亲自上手搞数据清洗、模型调优这些硬核操作把课本知识变成真本事‌02适学人群应届毕业生‌无工作经验但想要系统学习AI大模型技术期待通过实战项目掌握核心技术。零基础转型‌非技术背景但关注AI应用场景计划通过低代码工具实现“AI行业”跨界‌。业务赋能突破瓶颈传统开发者Java/前端等学习Transformer架构与LangChain框架向AI全栈工程师转型‌。vx扫描下方二维码即可【附赠一节免费的直播讲座技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等欢迎大家~】本教程比较珍贵仅限大家自行学习不要传播更严禁商用03入门到进阶学习路线图大模型学习路线图整体分为5个大的阶段04视频和书籍PDF合集从0到掌握主流大模型技术视频教程涵盖模型训练、微调、RAG、LangChain、Agent开发等实战方向新手必备的大模型学习PDF书单来了全是硬核知识帮你少走弯路不吹牛真有用05行业报告白皮书合集收集70报告与白皮书了解行业最新动态0690份面试题/经验AI大模型岗位面试经验总结谁学技术不是为了赚$呢找个好的岗位很重要07 deepseek部署包技巧大全由于篇幅有限只展示部分资料并且还在持续更新中…真诚无偿分享vx扫描下方二维码即可加上后会一个个给大家发【附赠一节免费的直播讲座技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等欢迎大家~】