渠道类型

GPT-Load 支持多种 AI 服务提供商的透明代理,完整保留各服务的原生 API 格式

支持的 AI 服务

OpenAI 格式

  • • 官方 OpenAI API
  • • Azure OpenAI Service
  • • 其他 OpenAI 兼容服务
  • • 支持所有模型和接口

Google Gemini 格式

  • • Gemini Pro 模型
  • • Gemini Pro Vision
  • • Gemini 原生 API 格式
  • • 完整功能支持

Anthropic Claude 格式

  • • Claude 系列模型
  • • 高质量对话生成
  • • 原生 API 格式支持
  • • 完整功能保留

扩展性设计

GPT-Load 采用插件化架构设计,可以快速集成新的 AI 服务提供商及其原生格式,保持各服务的独特特性和完整功能。

代理调用格式

统一代理端点

http://localhost:3001/proxy/{group_name}/{原始API路径}

参数说明

  • group_name: 在管理界面创建的分组名称
  • 原始API路径: 保持与原始 AI 服务完全一致

认证方式

  • • 保留各 AI 服务的原生认证格式
  • • 使用配置的代理密钥进行认证
  • • 支持全局和分组级别的代理密钥
  • • 完全透明的代理转发

OpenAI 格式调用

认证方式

OpenAI 格式使用 Authorization: Bearer {代理密钥} 头部认证

原始调用方式

curl -X POST https://api.openai.com/v1/chat/completions \
  -H "Authorization: Bearer sk-your-openai-key" \
  -H "Content-Type: application/json" \
  -d '{"model": "gpt-4.1-mini", "messages": [...]}'

代理调用方式

curl -X POST http://localhost:3001/proxy/openai/v1/chat/completions \
  -H "Authorization: Bearer your-proxy-key" \
  -H "Content-Type: application/json" \
  -d '{"model": "gpt-4.1-mini", "messages": [...]}'
https://api.openai.com 替换为http://localhost:3001/proxy/openai
将原始 OpenAI API Key 替换为配置的 代理密钥

支持的接口

主要接口

  • /v1/chat/completions - 聊天对话
  • /v1/completions - 文本补全
  • /v1/embeddings - 文本嵌入
  • /v1/models - 模型列表

其他接口

  • /v1/images/generations - 图像生成
  • /v1/audio/transcriptions - 语音转文字
  • /v1/moderations - 内容审查
  • • 以及其他所有 OpenAI 兼容接口

SDK 配置示例

Python SDK

from openai import OpenAI

client = OpenAI(
    api_key="your-proxy-key",  # 使用配置的代理密钥
    base_url="http://localhost:3001/proxy/openai"  # 使用代理端点
)

response = client.chat.completions.create(
    model="gpt-4.1-mini",
    messages=[{"role": "user", "content": "Hello"}]
)

Node.js SDK

import OpenAI from 'openai';

const openai = new OpenAI({
  apiKey: 'your-proxy-key',  // 使用配置的代理密钥
  baseURL: 'http://localhost:3001/proxy/openai'  // 使用代理端点
});

const response = await openai.chat.completions.create({
  model: 'gpt-4.1-mini',
  messages: [{ role: 'user', content: 'Hello' }]
});

Google Gemini 格式调用

认证方式

Gemini 格式使用 URL 参数 key={代理密钥} 认证

原始调用方式

curl -X POST "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.5-pro:generateContent?key=your-gemini-key" \
  -H "Content-Type: application/json" \
  -d '{"contents": [{"parts": [{"text": "Hello"}]}]}'

代理调用方式

curl -X POST "http://localhost:3001/proxy/gemini/v1beta/models/gemini-2.5-pro:generateContent?key=your-proxy-key" \
  -H "Content-Type: application/json" \
  -d '{"contents": [{"parts": [{"text": "Hello"}]}]}'
https://generativelanguage.googleapis.com 替换为http://localhost:3001/proxy/gemini
将 URL 参数中的 key=your-gemini-key 替换为统一认证密钥 sk-123456(默认)

支持的接口

内容生成

  • /v1beta/models/*/generateContent
  • • 支持流式和非流式响应
  • • 支持多模态输入(文本+图像)
  • • 完整的参数配置支持

模型管理

  • /v1beta/models - 模型列表
  • /v1beta/models/model-id - 模型详情
  • • 支持所有 Gemini 原生接口
  • • 保持原始 API 响应格式

SDK 配置示例

Python SDK

import google.generativeai as genai

# 配置 API 密钥和基础 URL
genai.configure(
    api_key="sk-123456",  # 使用统一认证密钥
    client_options={"api_endpoint": "http://localhost:3001/proxy/gemini"}
)

model = genai.GenerativeModel('gemini-2.5-pro')
response = model.generate_content("Hello")

直接 HTTP 调用

import requests

url = "http://localhost:3001/proxy/gemini/v1beta/models/gemini-2.5-pro:generateContent"
params = {"key": "sk-123456"}
data = {
    "contents": [{"parts": [{"text": "Hello"}]}]
}

response = requests.post(url, params=params, json=data)

Anthropic Claude 格式调用

认证方式

Anthropic 格式使用 x-api-key: {AUTH_KEY} 头部认证

原始调用方式

curl -X POST https://api.anthropic.com/v1/messages \
  -H "x-api-key: sk-ant-api03-your-anthropic-key" \
  -H "anthropic-version: 2023-06-01" \
  -H "Content-Type: application/json" \
  -d '{"model": "claude-sonnet-4-20250514", "messages": [{"role": "user", "content": "Hello"}]}'

代理调用方式

curl -X POST http://localhost:3001/proxy/anthropic/v1/messages \
  -H "x-api-key: sk-123456" \
  -H "anthropic-version: 2023-06-01" \
  -H "Content-Type: application/json" \
  -d '{"model": "claude-sonnet-4-20250514", "messages": [{"role": "user", "content": "Hello"}]}'
https://api.anthropic.com 替换为http://localhost:3001/proxy/anthropic
x-api-key 头部中的原始 API Key 替换为统一认证密钥 sk-123456(默认)

支持的接口

主要接口

  • /v1/messages - 消息对话
  • • 支持流式和非流式响应
  • • 支持多轮对话
  • • 完整的参数配置支持

模型管理

  • /v1/models - 模型列表(如果可用)
  • • 支持所有 Anthropic 原生接口
  • • 保持原始 API 响应格式
  • • 完整功能保留

SDK 配置示例

Python SDK

from anthropic import Anthropic

client = Anthropic(
    api_key="sk-123456",  # 使用统一认证密钥
    base_url="http://localhost:3001/proxy/anthropic"  # 使用代理端点
)

response = client.messages.create(
    model="claude-sonnet-4-20250514",
    messages=[{"role": "user", "content": "Hello"}]
)

直接 HTTP 调用

import requests

url = "http://localhost:3001/proxy/anthropic/v1/messages"
headers = {
    "x-api-key": "sk-123456",
    "Content-Type": "application/json"
}
data = {
    "model": "claude-sonnet-4-20250514",
    "messages": [{"role": "user", "content": "Hello"}]
}

response = requests.post(url, headers=headers, json=data)

分组管理

创建分组

  1. 1. 登录 Web 管理界面
  2. 2. 进入“密钥管理”页面
  3. 3. 点击“添加分组”按钮
  4. 4. 设置分组名称和类型
  5. 5. 配置上游地址和参数
  6. 6. 添加 API 密钥

分组配置

  • 分组名称:用于代理路径的标识符
  • 服务类型:OpenAI、Gemini 或 Anthropic 格式
  • 上游地址:原始 API 服务地址
  • 负载均衡:支持多个上游地址轮询
  • 自定义配置:覆盖系统默认设置

迁移指南

从直接调用迁移到代理

1

替换端点

将原始 API 端点替换为代理端点

2

更新密钥

使用统一的认证密钥

3

保持格式

其他请求参数和格式不变

无缝迁移

GPT-Load 作为透明代理服务,完全保留各 AI 服务的原生 API 格式和认证方式, 仅需要替换端点地址并使用统一密钥值即可无缝迁移现有代码。

渠道类型总结

透明代理

  • • 完整保留原生 API 格式
  • • 支持所有接口和参数
  • • 无需修改现有代码

统一管理

  • • 统一认证密钥
  • • 集中配置管理
  • • 智能负载均衡

易于扩展

  • • 插件化架构
  • • 快速支持新服务
  • • 保持服务特性