Hermes Agent 接入 HuanCode 配置指南(国内直连,无需梯子)
在 Hermes Agent 中配置 HuanCode 作为 LLM Provider,国内直连,支持 Claude / GPT / DeepSeek,微信支付按量充值。
Hermes Agent 是一个功能强大的 AI Agent 运行时,支持 MCP 工具、技能系统、多渠道部署(微信/飞书/Telegram/CLI),可以在本地命令行或各种 IM 平台上运行 AI Agent。
国内使用 Hermes 的痛点和其他 AI 工具一样:Claude / GPT 的 API 需要代理,境外信用卡才能充值。本文介绍通过 HuanCode 一次解决——国内直连,微信支付,改两行配置完成接入。
前提条件
- 已安装 Hermes Agent
- 已在 HuanCode 控制台 创建 API Key
- 账户余额充足(微信充值,余额永久有效)
安装 Hermes Agent
npm install -g @hermes-agi/hermes
# 验证安装
hermes --version配置 HuanCode Provider
Hermes 的配置文件位于 ~/.hermes/config.yaml。
完整配置示例
# LLM Provider 配置
provider: custom
model: claude-sonnet-4.6
custom_provider:
base_url: https://api.huancode.com/v1
api_key: 你的 HuanCode API Key
type: openai # HuanCode 兼容 OpenAI 格式将 你的 HuanCode API Key 替换为在 控制台 创建的 Key。
最简配置(只改两行)
如果你已有 Hermes 配置,只需修改这两项:
custom_provider:
base_url: https://api.huancode.com/v1 # 改这里
api_key: 你的 HuanCode API Key # 改这里验证配置
启动 Hermes:
hermes输入一条测试消息,能正常回复说明配置成功。
也可以直接 curl 验证 API 连通性:
curl https://api.huancode.com/v1/chat/completions \
-H "Authorization: Bearer 你的 HuanCode API Key" \
-H "Content-Type: application/json" \
-d '{
"model": "claude-sonnet-4.6",
"messages": [{"role": "user", "content": "你好"}]
}'切换模型
修改配置文件中的 model 字段即可切换:
model: claude-opus-4.6 # 最强推理,适合复杂任务
# model: claude-sonnet-4.6 # 日常使用,性价比最优
# model: claude-haiku-4.5 # 速度最快,适合简单任务
# model: gpt-5.4 # OpenAI 最新旗舰
# model: deepseek-v3.2 # 国产模型,价格更低HuanCode 支持的完整模型列表见 模型文档。
各模型适用场景
| 模型 | model 值 | 适用场景 |
|---|---|---|
| Claude Sonnet | claude-sonnet-4.6 | 日常对话 / 编码,性价比最优 |
| Claude Opus | claude-opus-4.6 | 复杂推理 / 长任务,能力最强 |
| Claude Haiku | claude-haiku-4.5 | 高频简单任务,延迟最低 |
| GPT-5.4 | gpt-5.4 | OpenAI 最新旗舰模型 |
| DeepSeek V3 | deepseek-v3.2 | 国产模型,成本更低 |
| Kimi K2 | kimi-k2.5 | 长文本 / 复杂推理 |
| 豆包 Seed | doubao-seed-2.0-pro | 字节最新旗舰 |
多渠道部署
Hermes 支持在多个平台运行,HuanCode 的配置在所有渠道通用:
CLI 模式(本地终端)
hermes微信渠道
在 Hermes 微信渠道配置中,LLM Provider 部分填写 HuanCode 的 base_url 和 api_key,其他渠道配置不变。
飞书 / Telegram / Discord
同理,只需在各渠道的配置文件中确保 custom_provider.base_url 指向 https://api.huancode.com/v1。
常见问题
提示 "Invalid API Key" 或 401
- 确认填的是 HuanCode 的 Key,不是 OpenAI / Anthropic 官方的
- Key 前后不要有多余空格或换行
- 在 控制台 确认 Key 处于启用状态
提示 "Model not found"
确认 model 字段的值在 支持的模型列表 中,注意大小写和版本号格式(如 claude-sonnet-4.6,用点号不用连字符)。
响应速度慢
HuanCode 是国内直连,网络延迟通常很低。慢的话一般是模型推理时间:
- Haiku 响应最快(适合高频调用)
- Sonnet 速度和质量平衡
- Opus 推理最强但速度最慢
余额不足
登录 控制台 → 充值 微信充值,用量页面 可查看每次请求的 token 消耗明细。