Miaoda 是一个通用的 AI 服务聚合平台,最初为 Claude Code (claude.ai/code) 设计,现已升级支持多种 AI 服务提供商。通过智能的 API 格式转换和动态路由,您可以使用统一的接口访问不同的 AI 服务。
- 🌍 多语言支持 - 新增英文、日文、印地语文档
- ⚡ 性能优化 - 提升启动速度和响应速度
- 🐛 Bug修复 - 修复已知问题,提升稳定性
- 🔧 用户体验 - 界面细节优化和交互改进
- 🔄 动态路由系统 - 运行时切换不同 AI 服务,无需重启
- 🔀 API 格式转换 - 自动转换不同服务之间的 API 格式
- 🤖 多服务支持 - 内置 OpenAI、Claude、Gemini、Groq 等 7+ 服务
- 🦙 本地模型 - 完整支持 Ollama、LM Studio、LocalAI
- 🎯 配置向导 - 分步骤引导,轻松配置各种 AI 服务
- 🖥️ VSCode 风格终端 - 使用 xterm.js 实现,完美复刻 VSCode 终端体验
- 📑 多终端标签 - 支持多个独立终端会话,可拖拽排序
- 🎨 主题定制 - 支持字体大小、样式、光标等自定义设置
- 🔧 配置管理 - 支持多配置文件,轻松切换不同的 API 设置
- 📊 使用统计 - 实时追踪 Token 使用量和费用
- 🍎 macOS 专用版 - 专为 macOS 平台深度优化
从 Releases 页面下载最新版本的 macOS 安装包:
- macOS (Intel):
Miaoda-5.0.1-x64.dmg - macOS (Apple Silicon):
Miaoda-5.0.1-arm64.dmg - Windows:
Miaoda-Setup-5.0.1.exe
# 克隆仓库
git clone https://github.com/yourusername/miaoda.git
cd miaoda
# 安装依赖
npm install
# 开发模式运行
npm run dev
# 构建应用
npm run build
# 构建 macOS 版本
npm run build # 构建所有架构
npm run dist # 构建所有架构- 启动应用 - 双击应用图标启动 Miaoda
- 环境检测 - 应用会自动检测 Claude CLI 和依赖环境
- 配置 API - 使用配置向导或配置管理器设置 AI 服务
- 开始使用 - 点击终端标签,输入
claude开始对话
现在表单更简洁:只有一个 API URL 与一个 API Key 输入框,配合“模式切换”自动映射到底层字段。
- 入口:配置管理 → 顶部“模式”单选
- OpenAI 兼容(Chat Completions):
- API URL =
OPENAI_BASE_URL - API Key =
OPENAI_API_KEY - 自动启用内部代理,并将 Claude
/v1/messages转换为 OpenAI/v1/chat/completions - 高级设置(可选):模型映射(包含 haiku/sonnet/opus → SMALL/MIDDLE/BIG)
- API URL =
- Claude 官方(Messages):
- API URL =
https://api.anthropic.com - API Key = 你的 Anthropic Key
- API URL =
保存并启动代理 的行为:
- 自动启动内置代理(等价于 claude-code-proxy 功能)
- 自动将 Claude CLI 环境变量
ANTHROPIC_API_URL/ANTHROPIC_BASE_URL指向该代理地址 - 无需在任何终端手工导出环境变量或手动运行代理
示例(在界面中“一键示例”可自动填充):
-
OpenAI
OPENAI_BASE_URL=https://api.openai.com/v1OPENAI_API_KEY=sk-...BIG_MODEL=gpt-4o,MIDDLE_MODEL=gpt-4o,SMALL_MODEL=gpt-4o-mini
-
Azure OpenAI
OPENAI_BASE_URL=https://<资源名>.openai.azure.com/openai/deployments/<部署名>OPENAI_API_KEY=<azure-key>BIG_MODEL=gpt-4,MIDDLE_MODEL=gpt-4,SMALL_MODEL=gpt-35-turbo
-
Ollama(本地)
OPENAI_BASE_URL=http://localhost:11434/v1OPENAI_API_KEY=dummy-keyBIG_MODEL=llama3.1:70b,MIDDLE_MODEL=llama3.1:70b,SMALL_MODEL=llama3.1:8b
可选安全:若在“期望的 ANTHROPIC_API_KEY”中填写了固定值,客户端访问本地代理时必须提供此 Key 才可通过。
参考方案与变量约定参考 claude-code-proxy 项目(供理解转换流程与变量命名):
- 项目首页:
https://github.com/fuergaosi233/claude-code-proxy
点击侧边栏的"配置向导"按钮,通过 4 个简单步骤完成配置:
- 选择服务 - 从预设的 AI 服务中选择
- 配置认证 - 输入 API Key(本地服务无需此步)
- 选择模型 - 选择要使用的 AI 模型
- 测试连接 - 验证配置是否正确
- OpenAI - GPT-4、GPT-3.5 等模型
- Anthropic Claude - Claude 3 Opus、Sonnet、Haiku
- Google Gemini - Gemini Pro、Pro Vision
- Groq Cloud - 超快速推理,支持 Llama 2、Mixtral
- Perplexity AI - 实时搜索增强的 AI
- Ollama - 运行 Llama、Mistral、CodeLlama 等开源模型
- LM Studio - 图形化本地模型管理工具
- LocalAI - 兼容 OpenAI API 的本地推理服务
v4.1.0 支持通过 URL 动态指定服务和模型:
http://localhost:8118/proxy/{service}/{model}/v1/chat/completions
示例:
- OpenAI GPT-4:
/proxy/openai/gpt-4/v1/chat/completions - Claude Opus:
/proxy/claude/claude-3-opus/v1/messages - Ollama Llama2:
/proxy/ollama/llama2/api/chat
Ctrl/Cmd + T- 新建终端Ctrl/Cmd + W- 关闭当前终端Ctrl/Cmd + 1-9- 快速切换终端Ctrl/Cmd + K- 清空当前终端Ctrl/Cmd + C- 复制选中文本Ctrl/Cmd + V- 粘贴
- Electron - 跨平台桌面应用框架
- xterm.js - 终端渲染引擎(与 VSCode 相同)
- node-pty - 提供真实的终端环境
- Vue.js - UI 框架(部分组件)
查看 CHANGELOG.md 了解版本更新详情。
欢迎提交 Issue 和 Pull Request!
MIT License - 详见 LICENSE 文件。
Made with ❤️ by Miaoda Team
