渠道类型
GPT-Load 支持多种 AI 服务提供商的透明代理,完整保留各服务的原生 API 格式
支持的 AI 服务
OpenAI 格式
- • 官方 OpenAI API
- • Azure OpenAI Service
- • 其他 OpenAI 兼容服务
- • 支持所有模型和接口
Google Gemini 格式
- • Gemini Pro 模型
- • Gemini Pro Vision
- • Gemini 原生 API 格式
- • 完整功能支持
Anthropic Claude 格式
- • Claude 系列模型
- • 高质量对话生成
- • 原生 API 格式支持
- • 完整功能保留
扩展性设计
GPT-Load 采用插件化架构设计,可以快速集成新的 AI 服务提供商及其原生格式,保持各服务的独特特性和完整功能。
代理调用格式
统一代理端点
http://localhost:3001/proxy/{group_name}/{原始API路径}
参数说明
- •
group_name
: 在管理界面创建的分组名称 - •
原始API路径
: 保持与原始 AI 服务完全一致
认证方式
- • 保留各 AI 服务的原生认证格式
- • 使用配置的代理密钥进行认证
- • 支持全局和分组级别的代理密钥
- • 完全透明的代理转发
OpenAI 格式调用
认证方式
OpenAI 格式使用 Authorization: Bearer {代理密钥}
头部认证
原始调用方式
curl -X POST https://api.openai.com/v1/chat/completions \
-H "Authorization: Bearer sk-your-openai-key" \
-H "Content-Type: application/json" \
-d '{"model": "gpt-4.1-mini", "messages": [...]}'
代理调用方式
curl -X POST http://localhost:3001/proxy/openai/v1/chat/completions \
-H "Authorization: Bearer your-proxy-key" \
-H "Content-Type: application/json" \
-d '{"model": "gpt-4.1-mini", "messages": [...]}'
将
https://api.openai.com
替换为http://localhost:3001/proxy/openai
将原始
OpenAI API Key
替换为配置的 代理密钥
支持的接口
主要接口
- •
/v1/chat/completions
- 聊天对话 - •
/v1/completions
- 文本补全 - •
/v1/embeddings
- 文本嵌入 - •
/v1/models
- 模型列表
其他接口
- •
/v1/images/generations
- 图像生成 - •
/v1/audio/transcriptions
- 语音转文字 - •
/v1/moderations
- 内容审查 - • 以及其他所有 OpenAI 兼容接口
SDK 配置示例
Python SDK
from openai import OpenAI
client = OpenAI(
api_key="your-proxy-key", # 使用配置的代理密钥
base_url="http://localhost:3001/proxy/openai" # 使用代理端点
)
response = client.chat.completions.create(
model="gpt-4.1-mini",
messages=[{"role": "user", "content": "Hello"}]
)
Node.js SDK
import OpenAI from 'openai';
const openai = new OpenAI({
apiKey: 'your-proxy-key', // 使用配置的代理密钥
baseURL: 'http://localhost:3001/proxy/openai' // 使用代理端点
});
const response = await openai.chat.completions.create({
model: 'gpt-4.1-mini',
messages: [{ role: 'user', content: 'Hello' }]
});
Google Gemini 格式调用
认证方式
Gemini 格式使用 URL 参数 key={代理密钥}
认证
原始调用方式
curl -X POST "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.5-pro:generateContent?key=your-gemini-key" \
-H "Content-Type: application/json" \
-d '{"contents": [{"parts": [{"text": "Hello"}]}]}'
代理调用方式
curl -X POST "http://localhost:3001/proxy/gemini/v1beta/models/gemini-2.5-pro:generateContent?key=your-proxy-key" \
-H "Content-Type: application/json" \
-d '{"contents": [{"parts": [{"text": "Hello"}]}]}'
将
https://generativelanguage.googleapis.com
替换为http://localhost:3001/proxy/gemini
将 URL 参数中的
key=your-gemini-key
替换为统一认证密钥 sk-123456
(默认)支持的接口
内容生成
- •
/v1beta/models/*/generateContent
- • 支持流式和非流式响应
- • 支持多模态输入(文本+图像)
- • 完整的参数配置支持
模型管理
- •
/v1beta/models
- 模型列表 - •
/v1beta/models/model-id
- 模型详情 - • 支持所有 Gemini 原生接口
- • 保持原始 API 响应格式
SDK 配置示例
Python SDK
import google.generativeai as genai
# 配置 API 密钥和基础 URL
genai.configure(
api_key="sk-123456", # 使用统一认证密钥
client_options={"api_endpoint": "http://localhost:3001/proxy/gemini"}
)
model = genai.GenerativeModel('gemini-2.5-pro')
response = model.generate_content("Hello")
直接 HTTP 调用
import requests
url = "http://localhost:3001/proxy/gemini/v1beta/models/gemini-2.5-pro:generateContent"
params = {"key": "sk-123456"}
data = {
"contents": [{"parts": [{"text": "Hello"}]}]
}
response = requests.post(url, params=params, json=data)
Anthropic Claude 格式调用
认证方式
Anthropic 格式使用 x-api-key: {AUTH_KEY}
头部认证
原始调用方式
curl -X POST https://api.anthropic.com/v1/messages \
-H "x-api-key: sk-ant-api03-your-anthropic-key" \
-H "anthropic-version: 2023-06-01" \
-H "Content-Type: application/json" \
-d '{"model": "claude-sonnet-4-20250514", "messages": [{"role": "user", "content": "Hello"}]}'
代理调用方式
curl -X POST http://localhost:3001/proxy/anthropic/v1/messages \
-H "x-api-key: sk-123456" \
-H "anthropic-version: 2023-06-01" \
-H "Content-Type: application/json" \
-d '{"model": "claude-sonnet-4-20250514", "messages": [{"role": "user", "content": "Hello"}]}'
将
https://api.anthropic.com
替换为http://localhost:3001/proxy/anthropic
将
x-api-key
头部中的原始 API Key 替换为统一认证密钥 sk-123456
(默认)支持的接口
主要接口
- •
/v1/messages
- 消息对话 - • 支持流式和非流式响应
- • 支持多轮对话
- • 完整的参数配置支持
模型管理
- •
/v1/models
- 模型列表(如果可用) - • 支持所有 Anthropic 原生接口
- • 保持原始 API 响应格式
- • 完整功能保留
SDK 配置示例
Python SDK
from anthropic import Anthropic
client = Anthropic(
api_key="sk-123456", # 使用统一认证密钥
base_url="http://localhost:3001/proxy/anthropic" # 使用代理端点
)
response = client.messages.create(
model="claude-sonnet-4-20250514",
messages=[{"role": "user", "content": "Hello"}]
)
直接 HTTP 调用
import requests
url = "http://localhost:3001/proxy/anthropic/v1/messages"
headers = {
"x-api-key": "sk-123456",
"Content-Type": "application/json"
}
data = {
"model": "claude-sonnet-4-20250514",
"messages": [{"role": "user", "content": "Hello"}]
}
response = requests.post(url, headers=headers, json=data)
分组管理
创建分组
- 1. 登录 Web 管理界面
- 2. 进入“密钥管理”页面
- 3. 点击“添加分组”按钮
- 4. 设置分组名称和类型
- 5. 配置上游地址和参数
- 6. 添加 API 密钥
分组配置
- • 分组名称:用于代理路径的标识符
- • 服务类型:OpenAI、Gemini 或 Anthropic 格式
- • 上游地址:原始 API 服务地址
- • 负载均衡:支持多个上游地址轮询
- • 自定义配置:覆盖系统默认设置
迁移指南
从直接调用迁移到代理
1
替换端点
将原始 API 端点替换为代理端点
2
更新密钥
使用统一的认证密钥
3
保持格式
其他请求参数和格式不变
无缝迁移
GPT-Load 作为透明代理服务,完全保留各 AI 服务的原生 API 格式和认证方式, 仅需要替换端点地址并使用统一密钥值即可无缝迁移现有代码。
渠道类型总结
透明代理
- • 完整保留原生 API 格式
- • 支持所有接口和参数
- • 无需修改现有代码
统一管理
- • 统一认证密钥
- • 集中配置管理
- • 智能负载均衡
易于扩展
- • 插件化架构
- • 快速支持新服务
- • 保持服务特性