跳到主要内容

提供者运行时解析

Hermes 有一个跨以下内容使用的共享提供者运行时解析器:

  • CLI
  • 网关
  • 计划任务
  • ACP
  • 辅助模型调用

主要实现:

  • hermes_cli/runtime_provider.py — 凭证解析、_resolve_custom_runtime()
  • hermes_cli/auth.py — 提供者注册表、resolve_provider()
  • hermes_cli/model_switch.py — 共享 /model 切换管道(CLI + 网关)
  • agent/auxiliary_client.py — 辅助模型路由

如果你要添加新的第一类推理提供者,请与本页一起阅读 添加提供者

解析优先级

高层上,提供者解析使用:

  1. 显式 CLI/运行时请求
  2. config.yaml 模型/提供者配置
  3. 环境变量
  4. 提供者特定默认值或自动解析

这个顺序很重要,因为 Hermes 将保存的模型/提供者选择作为正常运行的真实来源。这防止了过时的 shell 导出在你上次在 hermes model 中选择的端点上静默覆盖。

提供者

当前提供者系列包括:

  • AI Gateway (Vercel)
  • OpenRouter
  • Nous Portal
  • OpenAI Codex
  • Copilot / Copilot ACP
  • Anthropic(原生)
  • Google / Gemini
  • Alibaba / DashScope
  • DeepSeek
  • Z.AI
  • Kimi / Moonshot
  • MiniMax
  • MiniMax China
  • Kilo Code
  • Hugging Face
  • OpenCode Zen / OpenCode Go
  • 自定义(provider: custom)— 任何 OpenAI 兼容端点的第一类提供者
  • 命名自定义提供者(config.yaml 中的 custom_providers 列表)

运行时解析的输出

运行时解析器返回的数据包括:

  • provider
  • api_mode
  • base_url
  • api_key
  • source
  • 提供者特定元数据如 expiry/refresh 信息

为什么这很重要

这个解析器是 Hermes 可以在以下之间共享 auth/运行时逻辑的主要原因:

  • hermes chat
  • 网关消息处理
  • 在新会话中运行的计划任务
  • ACP 编辑器会话
  • 辅助模型任务

AI Gateway

~/.hermes/.env 中设置 AI_GATEWAY_API_KEY 并使用 --provider ai-gateway 运行。Hermes 从网关的 /models 端点获取可用模型,过滤到具有工具使用支持的语言模型。

OpenRouter、AI Gateway 和自定义 OpenAI 兼容基础 URL

Hermes 包含逻辑以避免在存在多个提供者密钥时(例如 OPENROUTER_API_KEYAI_GATEWAY_API_KEYOPENAI_API_KEY)向自定义端点泄露错误的 API 密钥。

每个提供者的 API 密钥作用域到其自己的基础 URL:

  • OPENROUTER_API_KEY 仅发送到 openrouter.ai 端点
  • AI_GATEWAY_API_KEY 仅发送到 ai-gateway.vercel.sh 端点
  • OPENAI_API_KEY 用于自定义端点和作为后备

Hermes 还区分:

  • 用户选择的真实自定义端点
  • 当没有配置自定义端点时使用的 OpenRouter 后备路径

这个区别对于以下情况特别重要:

  • 本地模型服务器
  • 非 OpenRouter/非 AI Gateway OpenAI 兼容 API
  • 切换提供者而不重新运行设置
  • config 保存的自定义端点,即使在当前 shell 中未导出 OPENAI_BASE_URL 也能继续工作

原生 Anthropic 路径

Anthropic 不再只是"通过 OpenRouter"。

当提供者解析选择 anthropic 时,Hermes 使用:

  • api_mode = anthropic_messages
  • 原生 Anthropic Messages API
  • agent/anthropic_adapter.py 用于翻译

原生 Anthropic 的凭证解析现在在两者都存在时首选可刷新的 Claude Code 凭证而非复制的 env token。实际上意味着:

  • Claude Code 凭证文件在包含可刷新 auth 时被视为首选来源
  • 手动 ANTHROPIC_TOKEN / CLAUDE_CODE_OAUTH_TOKEN 值仍作为显式覆盖工作
  • Hermes 在原生 Messages API 调用之前预检 Anthropic 凭证刷新
  • Hermes 在重建 Anthropic 客户端后仍对 401 再重试一次作为后备路径

OpenAI Codex 路径

Codex 使用单独的 Responses API 路径:

  • api_mode = codex_responses
  • 专用凭证解析和 auth 存储支持

辅助模型路由

辅助任务如:

  • 视觉
  • 网页提取摘要
  • 上下文压缩摘要
  • 会话搜索摘要
  • 技能中心操作
  • MCP 辅助操作
  • 记忆刷新

可以有自己的提供者/模型路由而不是主对话模型。

当辅助任务配置为提供者 main 时,Hermes 通过与正常聊天相同的共享运行时路径解析它。实际上意味着:

  • env 驱动的自定义端点仍然有效
  • 通过 hermes model / config.yaml 保存的自定义端点也有效
  • 辅助路由可以区分真实保存的自定义端点和 OpenRouter 后备

后备模型

Hermes 支持配置的备用模型/提供者对,允许在主模型遇到错误时进行运行时故障转移。

内部工作原理

  1. 存储AIAgent.__init__ 存储 fallback_model 字典并设置 _fallback_activated = False

  2. 触发点:在 run_agent.py 主重试循环中的三个地方调用 _try_activate_fallback()

    • 在无效 API 响应上的最大重试后(None choices、缺少 content)
    • 在不可重试的客户端错误上(HTTP 401、403、404)
    • 在瞬态错误上的最大重试后(HTTP 429、500、502、503)
  3. 激活流程_try_activate_fallback):

    • 如果已激活或未配置则立即返回 False
    • auxiliary_client.py 调用 resolve_provider_client() 构建具有正确 auth 的新客户端
    • 确定 api_modeopenai-codexcodex_responsesanthropicanthropic_messages、其他为 chat_completions
    • 就地交换:self.modelself.providerself.base_urlself.api_modeself.clientself._client_kwargs
    • 对于 anthropic 后备:构建原生 Anthropic 客户端而非 OpenAI 兼容
    • 重新评估提示缓存(为 OpenRouter 上的 Claude 模型启用)
    • 设置 _fallback_activated = True — 防止再次触发
    • 重置重试计数为 0 并继续循环
  4. 配置流程

    • CLI:cli.py 读取 CLI_CONFIG["fallback_model"] → 传递给 AIAgent(fallback_model=...)
    • 网关:gateway/run.py._load_fallback_model() 读取 config.yaml → 传递给 AIAgent
    • 验证:providermodel 键都必须非空,否则后备被禁用

什么不支持后备

  • 子 Agent 委托tools/delegate_tool.py):子 Agent 继承父级的提供者但不继承后备配置
  • 计划任务cron/):使用固定提供者运行,无后备机制
  • 辅助任务:使用自己的独立提供者自动检测链(见上文辅助模型路由)

测试覆盖

参见 tests/test_fallback_model.py 获取涵盖所有支持提供者、单次语义和边缘情况的综合测试。

相关文档