每天免费领 1亿 Token白嫖DeepSeek、GLM、MiniMax、Kimi等大模型这篇文章是专门写给那些想撸起袖子直接开干的朋友们的。咱们不整那些虚头巴脑的理论核心就帮大家解决四件事搞定 Claude Code 的安装、确认这玩意儿能跑通、成功对接国产大模型以及最后怎么玩转多模型自动调度。每天免费领 1亿 Token白嫖DeepSeek、GLM、MiniMax、Kimi等大模型要是你头一回听说 Claude Code听哥们儿一句劝老老实实按我这个顺序来千万别一上来就瞎折腾复杂配置。每天免费领 1亿 Token白嫖DeepSeek、GLM、MiniMax、Kimi等大模型一、先定个位咱们要的是“换心不换壳”每天免费领 1亿 Token白嫖DeepSeek、GLM、MiniMax、Kimi等大模型Claude Code 真正香的地方不仅仅是模型多厉害而是它那套丝滑的操作逻辑直接在终端里开搞、能秒懂你的整个项目、能自动改代码、能敲命令行还能顺着 Git 流程帮你推任务。所以咱们最实用的思路就是把 Claude Code 的操作体验原封不动留下来只是把底下那个费钱又慢的模型换成咱们国产的既便宜又好使。比如大家都在用的 DeepSeek V3.2、智谱的 GLM 4.6、MiniMax-M2.5或者阿里通义千问只要是那种支持聚合接入的模型咱们都能给它搞进来。二、安装 Claude Code2.1 常见的 npm 安装大法先瞅一眼你电脑里有没有 Node.jsnode -v npm -v只要这两个命令能跳出版本号那直接一行命令搞定npm install -g anthropic-ai/claude-code装完别忘了查一下有没有装成claude --version看到版本号显示出来这步就算妥了。2.2 官方脚本直接装要是你不想折腾 npm用官方给的脚本也行。macOS / Linux / WSL 系统curl -fsSL https://claude.ai/install.sh | bashWindows 的 PowerShell 环境irm https://claude.ai/install.ps1 | iexWindows 的 CMD 环境curl -fsSL https://claude.ai/install.cmd -o install.cmd install.cmd del install.cmd装完还是那一招用claude --version验证下就行。每天免费领 1亿 Token白嫖DeepSeek、GLM、MiniMax、Kimi等大模型三、先走官方老路子看看东西坏没坏先钻进你的项目文件夹里cd /你的项目路径 claude第一次打开它可能会让你登录或者给个授权什么的。这时候先别急着切换模型先确定三件事这玩意儿能正常启动、能读懂你的代码、能听懂你下达的任务。你可以试着丢给它这几句话帮我解释一下这个仓库的目录结构 给 utils/date.ts 写个单元测试 把这个函数重构成 async/await 的写法 在这个模块里找找有没有什么 bug只要它能动弹没报什么奇怪的错咱们再接着往下折腾。四、最无脑的接法直接套用兼容接口每天免费领 1亿 Token白嫖DeepSeek、GLM、MiniMax、Kimi等大模型这部分是纯纯的福利新手直接照抄就行。如果哪个模型服务商说他们兼容 Anthropic 的接口那咱们直接改几个环境变量就能把 Claude Code 骗过去。首推大家试试 DeepSeek 和 GLM因为这两家接起来最轻松坑最少。五、接入 DeepSeek最省钱的起步姿势5.1 临时玩玩关了终端就失效在你的终端里直接敲这几行export ANTHROPIC_BASE_URLhttps://api.deepseek.com/anthropic export ANTHROPIC_AUTH_TOKEN这里填你的_DEEPSEEK_API_KEY export API_TIMEOUT_MS600000 export ANTHROPIC_MODELdeepseek-chat export ANTHROPIC_SMALL_FAST_MODELdeepseek-chat export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC1然后进项目跑跑看cd /你的项目路径 claude只要它能接你的话那 DeepSeek 就已经成功“上位”了。5.2 一劳永逸的搞法真心推荐如果你平时用的是 zsh那就把下面这段话塞进~/.zshrcexport ANTHROPIC_BASE_URLhttps://api.deepseek.com/anthropic export ANTHROPIC_AUTH_TOKEN这里填你的_DEEPSEEK_API_KEY export API_TIMEOUT_MS600000 export ANTHROPIC_MODELdeepseek-chat export ANTHROPIC_SMALL_FAST_MODELdeepseek-chat export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC1保存之后别忘了刷一下配置source ~/.zshrc。如果你用的是 bash道理一样写进~/.bashrc然后source激活就行。5.3 怎么确定 DeepSeek 真的干活了你可以查查现在的环境变量对不对echo $ANTHROPIC_BASE_URL echo $ANTHROPIC_MODEL只要看到地址是deepseek.com且模型是deepseek-chat那就没问题。接着运行claude随便派个活儿比如“帮我写个 Python 版的 hello world并逐行解释下”。只要没报错说明你已经成功白嫖了。每天免费领 1亿 Token白嫖DeepSeek、GLM、MiniMax、Kimi等大模型六、接入 GLM国内开发者的稳妥选择智谱 GLM 的接法通常有两种大家看哪个顺手用哪个。6.1 修改 settings.json 的法子先建个配置文件夹mkdir -p ~/.claude然后新建或打开配置文件nano ~/.claude/settings.json把下面这坨代码扔进去{ env: { ANTHROPIC_AUTH_TOKEN: 填你的_GLM_API_KEY, ANTHROPIC_BASE_URL: https://open.bigmodel.cn/api/anthropic, API_TIMEOUT_MS: 3000000, ANTHROPIC_DEFAULT_HAIKU_MODEL: glm-4.5-air, ANTHROPIC_DEFAULT_SONNET_MODEL: glm-4.6, ANTHROPIC_DEFAULT_OPUS_MODEL: glm-4.6 } }保存退出直接在项目里喊claude即可。6.2 还是习惯用环境变量也没问题直接在终端敲export ANTHROPIC_AUTH_TOKEN填你的_GLM_API_KEY export ANTHROPIC_BASE_URLhttps://open.bigmodel.cn/api/anthropic export API_TIMEOUT_MS3000000 export ANTHROPIC_DEFAULT_HAIKU_MODELglm-4.5-air export ANTHROPIC_DEFAULT_SONNET_MODELglm-4.6 export ANTHROPIC_DEFAULT_OPUS_MODELglm-4.6想长久保存的话老规矩还是塞进你的 shell 配置文件里。6.3 验验货检查下环境echo $ANTHROPIC_BASE_URL确认是智谱的地址。启动后让它“用几个要点总结下这个代码库的作用”。只要它能顺畅回答说明 GLM 也接好了。每天免费领 1亿 Token白嫖DeepSeek、GLM、MiniMax、Kimi等大模型七、MiniMax-M2.5更建议放在“中转站”里用咱实话实说MiniMax-M2.5 确实挺厉害但我不太建议你直接生啃它。主要是为了求稳它更适合通过一些聚合平台或者路由转换器来用。所以我的建议顺序是先用 DeepSeek 或 GLM 练手等熟悉了再把 MiniMax 挂到那种像 OpenRouter 或者是 Claude Code Router (CCR) 的工具里。八、进阶黑科技安装 Claude Code RouterCCR如果你不满足于“能用”而是追求“极速便宜稳定”那 CCR 绝对是你的菜。它可以帮你实现简单活儿丢给便宜模型难搞的推导交给强力模型主模型挂了还能自动换备胎。8.1 安装 CCRnpm install -g musistudio/claude-code-router装完输入ccr --help看看有反应就说明成了。8.2 搞定配置文件mkdir -p ~/.claude-code-router nano ~/.claude-code-router/config.json8.3 送你一个亲测好用的最小配置模板每天免费领 1亿 Token白嫖DeepSeek、GLM、MiniMax、Kimi等大模型这份配置主打一个“稳”字直接抄{LOG:true,API_TIMEOUT_MS:600000,NON_INTERACTIVE_MODE:false,Providers:[{name:deepseek,api_base_url:https://api.deepseek.com/chat/completions,api_key:填你的_DEEPSEEK_API_KEY,models:[deepseek-chat,deepseek-reasoner],transformer:{use:[deepseek],deepseek-chat:{use:[tooluse]}}},{name:glm,api_base_url:https://open.bigmodel.cn/api/paas/v4/chat/completions,api_key:填你的_GLM_API_KEY,models:[glm-4.6,glm-4.5-air]}],Router:{default:deepseek,deepseek-chat,think:deepseek,deepseek-reasoner,background:glm,glm-4.5-air,longContext:glm,glm-4.6,longContextThreshold:60000}}简单说这就是让 DeepSeek 负责平时和动脑筋的活儿GLM 负责打杂和长文本。8.4 启动 CCR 模式下的 Claude Code以后想用的时候直接敲ccr code这就是让 CCR 坐在底层给 Claude Code 当指挥官。改了配置想重启就ccr restart想看管理界面就ccr ui。九、教你一套聪明的“模型分工方案”每天免费领 1亿 Token白嫖DeepSeek、GLM、MiniMax、Kimi等大模型很多人容易钻牛角尖非得一个模型用到死。其实真正的高手都是混着用的追求性价比平时用 DeepSeek V3.2思考题给 Reasoner长文档丢给 GLM。追求稳定默认全上 GLM 4.6DeepSeek 当备胎。想尝鲜把 MiniMax 挂在路由器里干特定的活儿。总之没有最强的模型只有最合适的搭配。十、避坑指南遇到问题怎么办找不到命令那就是 npm 的路径没配好查查你的环境变量 PATH。401 报错百分之百是 API Key 填错了或者你没执行source激活环境变量。404 或模型找不到基本都是接口地址Base URL写歪了。配置报错检查下你的 JSON 文件里是不是少了个逗号或者引号。智商掉线别怪模型可能是你把太难的任务给了一个太便宜的“轻量版”模型。每天免费领 1亿 Token白嫖DeepSeek、GLM、MiniMax、Kimi等大模型十一、总结新手该怎么选如果你刚开始尝试别整复杂的就按这个顺序装上 Claude Code。搞个 DeepSeek 或者 GLM 的 Key。把那几个export环境变量往终端里一贴。跑起来等你用顺手了觉得需要更精细的管理了再上 CCR 搞多模型路由。每天免费领 1亿 Token白嫖DeepSeek、GLM、MiniMax、Kimi等大模型十二、最后一句话Claude Code 的精髓在于它让你像呼吸一样自然地在终端里和 AI 协作而接入国产大模型则是为了让这种“呼吸”变得更便宜、更自由。先跑通再分工最后加路由这就是最稳的实践路径