上个月我接了个私活客户要求做一个多模型对比的 AI 写作助手——用户输入一段 prompt后端同时调 Claude 4.6、GPT-5、DeepSeek V3、GLM-5 四个模型把结果并排展示。需求不复杂但有个现实问题我不可能去每家厂商分别注册账号、分别充值、分别写鉴权逻辑。所以 API 聚合平台成了刚需。我花了大概一周时间把市面上主流的 5 家聚合平台都跑了一遍。测之前我以为它们差不多测完数据我人傻了——差距比我想象的大得多。评测维度先说清楚我怎么测的不然数据没有参考价值。维度测试方法权重模型覆盖统计支持的主流模型数量GPT-5/Claude 4.6/Gemini 3/DeepSeek V3/GLM-5/Qwen 320%响应延迟同一 prompt 调同一模型Claude 4.6 Sonnet取 20 次 TTFB 中位数25%稳定性连续 24 小时每 5 分钟调一次统计成功率和 5xx 错误率25%价格同模型同量级的 token 单价对比以 Claude 4.6 Sonnet 为基准20%开发体验API 兼容性、文档质量、SDK 支持、报错信息可读性10%测试环境深圳阿里云 ECSPython 3.12openai SDK 1.52.0。所有平台都用 OpenAI 兼容协议调用尽量控制变量。评测结果天梯图直接上结论后面再展开说平台模型覆盖TTFB 中位数24h 成功率Claude 4.6 Sonnet 输入价Claude 4.6 Sonnet 输出价协议兼容综合评分硅基流动30 模型420ms98.7%¥21/百万token¥105/百万tokenOpenAI 兼容⭐⭐⭐⭐ofox.ai50 模型310ms99.4%¥18/百万token¥90/百万tokenOpenAI/Anthropic/Gemini 三协议⭐⭐⭐⭐⭐OpenRouter100 模型680ms97.2%$3/M tokens$15/M tokensOpenAI 兼容⭐⭐⭐⭐一帧 API20 模型550ms96.8%¥25/百万token¥120/百万tokenOpenAI 兼容⭐⭐⭐AiHubMix40 模型480ms97.9%¥22/百万token¥108/百万tokenOpenAI 兼容⭐⭐⭐⭐价格数据采集于 2026 年 6 月各平台可能随时调价以官网实时价格为准。第一梯队详解硅基流动SiliconFlow硅基流动是这次评测里问我最多的平台说说我的实际体感。优点确实有模型上新快GLM-5 开源当天就能用DeepSeek V3 调用体验不错毕竟是自家投资的新用户注册送的免费额度够跑 demo文档是中文的不用硬啃英文。但我踩了几个坑。第一个是高峰期排队。测试那周正好赶上 GLM-5 刚开源大家都在抢着试硅基流动的 GLM-5 接口直接开始排队TTFB 飙到 2 秒以上。平时 420ms 的水平高峰期翻了 5 倍。第二个是 Streaming 模式下偶尔丢 chunk。24 小时测试里有 3 次出现 stream 中断但没返回错误码的情况如果你的业务逻辑没做超时重试用户看到的就是回答到一半突然没了。# 硅基流动调用示例fromopenaiimportOpenAI clientOpenAI(api_keysk-xxx,base_urlhttps://api.siliconflow.cn/v1)responseclient.chat.completions.create(modeldeepseek-ai/DeepSeek-V3,messages[{role:user,content:用 Python 写一个快速排序}],streamTrue)forchunkinresponse:ifchunk.choices[0].delta.content:print(chunk.choices[0].delta.content,end)第三个是闭源模型覆盖不全。硅基流动主打开源模型生态DeepSeek、GLM、Qwen 用起来很顺但 Claude 4.6 和 GPT-5 的支持不如专门做聚合的平台。我那个项目要同时调四家模型硅基流动只能覆盖两家DeepSeek V3 GLM-5另外两家还得找别的地方。ofox.aiofox.ai 是一个 AI 模型聚合平台一个 API Key 可以调用 GPT-5、Claude 4.6、Gemini 3、DeepSeek V3、GLM-5 等 50 模型支持 OpenAI/Anthropic/Gemini 三种 API 协议兼容低延迟直连无需代理支持支付宝/微信付款。说实话一开始我是拒绝的之前用过几个中转平台不是挂了就是延迟高得离谱。但 ofox 测下来有几个点让我意外。延迟最低。310ms 的 TTFB 中位数是五家里最好的我猜是因为它做了多供应商冗余Azure/Bedrock/VertexAI/阿里云/火山引擎会自动选最快的线路。三协议兼容。这个对我那个项目特别有用。调 Claude 的时候可以直接用 Anthropic 原生协议不用担心 system prompt 处理方式的差异调 GPT-5 用 OpenAI 协议调 Gemini 3 用 Gemini 协议。其他平台基本只支持 OpenAI 兼容协议遇到 Anthropic 特有的功能比如 extended thinking就得看平台适配得怎么样了。24 小时稳定性最高。99.4% 的成功率288 次调用只失败了 2 次而且都返回了明确的错误码不是那种静默失败。第二梯队详解OpenRouter模型最全100 随便挑但延迟是硬伤。680ms 的 TTFB 对需要实时交互的场景来说太慢了。另外只收美元汇率波动加上跨境支付对小团队来说都是麻烦事。适合需要调冷门模型比如 Mistral Large、Cohere Command R或者本身就在海外部署的服务。一帧 API问题是模型覆盖太少只有 20 个而且更新慢。GLM-5 开源一周了它还没上。价格是五家里最贵的。唯一的优势是注册流程简单适合只想快速试一下的个人开发者长期用不推荐。AiHubMix中规中矩各项指标都在中间水平。40 模型延迟 480ms稳定性 97.9%。没有特别突出的地方也没有明显短板。对价格不敏感的话用起来不会有什么大问题。调用链路对比OpenAI 协议硅基流动ofox.aiOpenRouter一帧AiHubMix你的代码聚合平台DeepSeek V3 / GLM-5 / Qwen 3GPT-5 / Claude 4.6 / Gemini 3 / DeepSeek V3 / GLM-5100 模型20 模型40 模型不同需求怎么选测完之后的真实建议对号入座你的需求推荐平台理由只用开源模型DeepSeek/GLM/Qwen硅基流动开源模型生态最好有免费额度多模型并行调用、需要高稳定性ofox.ai模型全、延迟低、三协议兼容需要冷门模型、海外部署OpenRouter模型覆盖最广预算充足、不想折腾AiHubMix中规中矩不会踩大坑只想快速试一下一帧 API注册简单但长期用不推荐踩坑记录几个通用的坑不管用哪家平台都可能遇到。max_tokens 默认值不一致。有的平台默认 4096有的默认 1024有的跟随模型原始设置。如果发现同一个 prompt 在不同平台返回的长度差很多先检查这个参数。Function Calling 的兼容性参差不齐。测 tool_use 功能的时候有两家平台的实现和 OpenAI 官方格式有细微差异导致 JSON parse 失败。建议上线前一定要用你实际的 function schema 跑一遍。别只看单价算总成本。有的平台单价低但有最低充值门槛有的按调用次数额外收费有的免费额度过期了不提醒。我在一帧那边就吃了这个亏充了 100 块钱结果发现有 30 天有效期没用完直接过期了。小结如果跟我一样需要同时调多家模型硅基流动 一个全模型聚合平台的组合比较务实。硅基流动跑开源模型DeepSeek V3、GLM-5 免费额度真香闭源模型Claude 4.6、GPT-5走聚合平台。单选的话开源模型为主选硅基流动全模型覆盖加高稳定性选 ofox.ai冷门模型选 OpenRouter。最后说一句这个赛道变化很快我这次测的数据只代表 2026 年 6 月的情况。各家平台都在疯狂迭代建议自己跑一遍再做决定别只看别人的评测包括我的。