如果你使用的是搭载 Apple Silicon 芯片的 Mac你的硬盘里其实早就内置了一个 30 亿参数的语言大模型。苹果将它锁在了 Siri 的背后而 apfel 解锁了它。这是一个原生的 Swift 项目它将苹果的端侧基础模型Foundation Model封装成了一个命令行CLI工具和一个兼容 OpenAI 协议的 HTTP 服务器。无需 API Key无需连接云端更没有按 Token 计费。一切都在你的神经网络引擎Neural Engine上完全本地运行。你早已拥有了硬件而它就是开启这套硬件的钥匙。在这个大模型按 Token 收费、动辄需要联网且面临数据泄露风险的时代如果你使用的是最新的 Mac 电脑你的机器里其实早就藏着一个免费的超级大脑。apfel 这款极客利器彻底打破了生态限制让你无需 API Key、无需联网就能实现百分之百的本地 AI 算力自由。众所周知每一台搭载 Apple Silicon 芯片且系统升级到 macOS 26Tahoe及以上的 Mac都内置了苹果官方的 apple-foundationmodel 基础大模型。apfel 巧妙地封装了底层的 FoundationModels 框架接管了这部分被封印的免费算力让你拔掉网线也能随叫随到。以往这套原生大模型只被锁在 Siri 等系统外壳内输出形态也是不可预测的黑盒文本生态极其封闭。而 apfel 成功将其转化为真正的极客武器不仅提供了纯净的 UNIX 终端指令交互入口支持标准 JSON 格式输出甚至能一键转化为 OpenAI 兼容服务器。对于终端重度用户而言它完美契合了 UNIX 的管道哲学你可以直接用类似管道命令捕获任何终端的标准输出让其进行离线解析。配合内置的 cmd 和 oneliner 模式更能实现零延迟的自然语言直出 Shell 指令无缝串联复杂的命令。遇到天书般的代码报错时它就是你的本地代码排雷兵。只需使用 -f 参数就能将海量日志或复杂源码直接喂给本地模型分析崩溃原因全程不触网的特性保证了核心业务代码的绝对隐私安全配合内置的 wtd 指令还能瞬间理清复杂开源项目的目录结构。它最逆天的功能在于只需一句 apfel --serve 启动命令就能瞬间化身为完全兼容 OpenAI 协议的本地 HTTP 服务器。这意味着你可以零代码修改直接将手头第三方 AI 插件的 API 地址指向 localhost:11434彻底告别按 Token 计费的账单焦虑盘活整个本地 AI 生态。它的能力绝不仅限于文本对话更是硬核支持全双工的函数调用Tool Calling与 MCPModel Context Protocol。这使得模型能够自主决定何时调用本地函数并接收原生协议的标准 JSON 格式返回无需编写复杂的胶水代码就能让本地大模型直接操控计算器、读取文件或执行脚本。当然使用本地算力也需要极客的清醒它受限于当前物理与生态的绝对边界。它的上下文窗口严格限制在 4096 个 Token约 3000 词专为轻量级任务和单点突破设计目前仅支持纯文本推理不看图、不支持向量嵌入同时必须满足苹果芯片和 macOS 26 的硬性门槛。在底层实现上它保持了极简与纯粹整体架构基于 Swift 6.3 的严格并发模型Strict Concurrency构建。它做到了零外部依赖无需庞大的环境配置或安装 Xcode还贴心地设计了 0 到 6 的标准化退出码Exit Codes专为高阶 Shell 脚本的自动化防错而生。在这个算力即金钱的时代apfel 就像是一把钥匙帮你夺回属于你的算力掌控权。告别昂贵的云端订阅税唤醒沉睡在机器里的苹果芯片真正践行“Your Model. Your Machine. Your Way.”的极客精神。https://github.com/Arthur-Ficial/apfel