HuanCode Docs

Hermes Agent 接入 HuanCode 配置指南(国内直连,无需梯子)

在 Hermes Agent 中配置 HuanCode 作为 LLM Provider,国内直连,支持 Claude / GPT / DeepSeek,微信支付按量充值。

Hermes Agent 是一个功能强大的 AI Agent 运行时,支持 MCP 工具、技能系统、多渠道部署(微信/飞书/Telegram/CLI),可以在本地命令行或各种 IM 平台上运行 AI Agent。

国内使用 Hermes 的痛点和其他 AI 工具一样:Claude / GPT 的 API 需要代理,境外信用卡才能充值。本文介绍通过 HuanCode 一次解决——国内直连,微信支付,改两行配置完成接入。


前提条件


安装 Hermes Agent

npm install -g @hermes-agi/hermes

# 验证安装
hermes --version

配置 HuanCode Provider

Hermes 的配置文件位于 ~/.hermes/config.yaml

完整配置示例

~/.hermes/config.yaml
# LLM Provider 配置
provider: custom
model: claude-sonnet-4.6

custom_provider:
  base_url: https://api.huancode.com/v1
  api_key: 你的 HuanCode API Key
  type: openai  # HuanCode 兼容 OpenAI 格式

你的 HuanCode API Key 替换为在 控制台 创建的 Key。

最简配置(只改两行)

如果你已有 Hermes 配置,只需修改这两项:

custom_provider:
  base_url: https://api.huancode.com/v1  # 改这里
  api_key: 你的 HuanCode API Key          # 改这里

验证配置

启动 Hermes:

hermes

输入一条测试消息,能正常回复说明配置成功。

也可以直接 curl 验证 API 连通性:

curl https://api.huancode.com/v1/chat/completions \
  -H "Authorization: Bearer 你的 HuanCode API Key" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "claude-sonnet-4.6",
    "messages": [{"role": "user", "content": "你好"}]
  }'

切换模型

修改配置文件中的 model 字段即可切换:

~/.hermes/config.yaml
model: claude-opus-4.6      # 最强推理,适合复杂任务
# model: claude-sonnet-4.6  # 日常使用,性价比最优
# model: claude-haiku-4.5   # 速度最快,适合简单任务
# model: gpt-5.4            # OpenAI 最新旗舰
# model: deepseek-v3.2      # 国产模型,价格更低

HuanCode 支持的完整模型列表见 模型文档

各模型适用场景

模型model 值适用场景
Claude Sonnetclaude-sonnet-4.6日常对话 / 编码,性价比最优
Claude Opusclaude-opus-4.6复杂推理 / 长任务,能力最强
Claude Haikuclaude-haiku-4.5高频简单任务,延迟最低
GPT-5.4gpt-5.4OpenAI 最新旗舰模型
DeepSeek V3deepseek-v3.2国产模型,成本更低
Kimi K2kimi-k2.5长文本 / 复杂推理
豆包 Seeddoubao-seed-2.0-pro字节最新旗舰

多渠道部署

Hermes 支持在多个平台运行,HuanCode 的配置在所有渠道通用:

CLI 模式(本地终端)

hermes

微信渠道

在 Hermes 微信渠道配置中,LLM Provider 部分填写 HuanCode 的 base_urlapi_key,其他渠道配置不变。

飞书 / Telegram / Discord

同理,只需在各渠道的配置文件中确保 custom_provider.base_url 指向 https://api.huancode.com/v1


常见问题

提示 "Invalid API Key" 或 401

  • 确认填的是 HuanCode 的 Key,不是 OpenAI / Anthropic 官方的
  • Key 前后不要有多余空格或换行
  • 控制台 确认 Key 处于启用状态

提示 "Model not found"

确认 model 字段的值在 支持的模型列表 中,注意大小写和版本号格式(如 claude-sonnet-4.6,用点号不用连字符)。

响应速度慢

HuanCode 是国内直连,网络延迟通常很低。慢的话一般是模型推理时间:

  • Haiku 响应最快(适合高频调用)
  • Sonnet 速度和质量平衡
  • Opus 推理最强但速度最慢

余额不足

登录 控制台 → 充值 微信充值,用量页面 可查看每次请求的 token 消耗明细。


下一步

On this page