模型重定向

模型重定向功能允许您在不修改客户端代码的情况下,透明地将请求中的模型名称映射到其他模型,实现版本管理、灵活切换和访问控制。

核心价值

🔄

版本管理

统一管理模型版本,一键切换全局使用的模型版本

🔀

灵活切换

在不同供应商或相同能力的模型间自由切换,保持业务连续性

🏷️

简化命名

为复杂的模型版本号创建易记的别名

🔒

访问控制

通过白名单模式严格限制可用模型范围

配置说明

配置位置

  1. 登录 GPT-Load 管理后台
  2. 进入「分组管理」页面
  3. 点击目标分组的「编辑」按钮
  4. 在表单中找到「模型重定向规则」配置区域

配置格式

⚠️ 重要说明

JSON 配置中,key 是用户可用的模型名称(重定向后),value 是请求上游的真实模型名称

{
  "gpt-4": "gpt-4-turbo-2024-04-09",
  "gpt-4o": "gpt-4o-2024-05-13",
  "claude-opus": "claude-3-opus-20240229"
}

配置效果:

  • 客户端请求 gpt-4 → 实际调用 gpt-4-turbo-2024-04-09
  • 客户端请求 gpt-4o → 实际调用 gpt-4o-2024-05-13
  • 客户端请求 gpt-3.5-turbo → 直接透传(未配置规则)

策略模式

宽松模式(默认)

配置的模型进行重定向,未配置的模型直接透传到上游服务。适用于通用代理场景,保持最大兼容性。

配置规则:{"gpt-4": "gpt-4-turbo"}

gpt-4 → gpt-4-turbo(重定向)

gpt-3.5-turbo → gpt-3.5-turbo(透传)

claude-3 → claude-3(透传)

严格模式

仅允许配置规则中的源模型名称,未配置的模型请求返回 400 错误。适用于白名单控制和成本严格管控。

配置规则:{"allowed-model": "gpt-4-turbo"}

allowed-model → gpt-4-turbo(重定向)

gpt-4 → 400 错误 ❌

gpt-3.5-turbo → 400 错误 ❌

典型应用场景

场景一:模型版本统一管理

公司内部多个项目使用 gpt-4,需要统一升级到最新版本。无需修改各项目代码,在代理层统一切换版本。

{
  "gpt-4": "gpt-4-turbo-2024-04-09",
  "gpt-4-32k": "gpt-4-turbo-2024-04-09"
}

场景二:供应商灵活切换

在不同供应商的相同能力模型间切换,或根据可用性、地域等因素动态调整。无缝迁移,保持业务连续性。

{
  "gpt-4": "claude-3-opus-20240229",
  "default-chat": "gemini-2.0-flash"
}

场景三:创建简短别名

简化复杂的模型版本号,提升开发体验。客户端代码更简洁,版本升级时只需修改配置。

{
  "gpt5": "gpt-5-2025-08-07",
  "flash": "gemini-2.5-flash-preview",
  "opus": "claude-3-opus-20240229"
}

场景四:聚合分组模型统一

聚合分组包含多个相同渠道类型但对接不同服务商的子分组时,通过在每个子分组配置模型重定向,让客户端使用统一的模型名称访问不同服务商。

子分组A (OpenAI官方): {"gpt-4": "gpt-4-turbo"}
子分组B (Azure OpenAI): {"gpt-4": "gpt-35-turbo"}
子分组C (OpenRouter): {"gpt-4": "openai/gpt-4-turbo"}

注意事项

配置限制

  • 聚合分组本身不支持模型重定向,但其子分组(标准分组)支持
  • 必须是有效的 JSON 格式
  • 键和值都必须是非空字符串
  • 不支持正则表达式或通配符

使用建议

  • 生产环境建议使用宽松模式
  • 测试环境可用严格模式控制成本
  • 定期审计重定向日志
  • 及时清理过期的重定向规则

功能总结

模型重定向在请求链路中透明执行,客户端感知不到映射过程。配置支持热更新,无需重启服务即可生效。

关键要点: JSON 配置中,key 是用户可用模型,value 是上游真实模型