安装部署

GPT-Load 支持多种部署方式,选择最适合您环境的方式快速开始

Docker 部署(推荐)

✅ 推荐理由

  • • 环境隔离,避免依赖冲突
  • • 一键部署,简单快捷
  • • 支持容器编排和扩展
  • • 生产环境首选方案

快速开始

1. 拉取镜像

docker pull ghcr.io/tbphp/gpt-load:latest

2. 创建密钥文件

# 每行一个 API 密钥
echo "sk-your-openai-key-1" > keys.txt
echo "sk-your-openai-key-2" >> keys.txt
echo "sk-your-openai-key-3" >> keys.txt

3. 启动容器

docker run -d \
  --name gpt-load \
  -p 3000:3000 \
  -v $(pwd)/keys.txt:/app/keys.txt:ro \
  ghcr.io/tbphp/gpt-load:latest

4. 验证服务

# 检查健康状态
curl http://localhost:3000/health

# 查看统计信息
curl http://localhost:3000/stats

🎉 部署完成!

您的 GPT-Load 服务现在运行在 http://localhost:3000

使用 Docker Compose

对于生产环境或需要持久化配置的场景,推荐使用 Docker Compose:

创建 docker-compose.yml

version: '3.8'

services:
  gpt-load:
    image: ghcr.io/tbphp/gpt-load:latest
    container_name: gpt-load
    ports:
      - "3000:3000"
    volumes:
      - ./keys.txt:/app/keys.txt:ro
      - ./logs:/app/logs
    environment:
      - LOG_LEVEL=info
      - MAX_CONCURRENT_REQUESTS=100
      - ENABLE_CORS=true
    restart: unless-stopped

启动服务

# 启动服务
docker-compose up -d

# 查看日志
docker-compose logs -f

# 停止服务
docker-compose down

环境变量配置

变量名默认值说明
PORT3000服务器监听端口
KEYS_FILEkeys.txtAPI 密钥文件路径
OPENAI_BASE_URLhttps://api.openai.com上游 API 地址
MAX_CONCURRENT_REQUESTS100最大并发请求数

测试服务

健康检查

curl http://localhost:3000/health

# 响应示例
{
  "status": "healthy",
  "timestamp": "2024-01-01T00:00:00Z",
  "uptime": "1h30m45s"
}

发送测试请求

curl -X POST http://localhost:3000/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer sk-your-api-key" \
  -d '{
    "model": "gpt-3.5-turbo",
    "messages": [
      {"role": "user", "content": "Hello, world!"}
    ]
  }'

下一步

配置优化

了解如何优化 GPT-Load 的配置以获得最佳性能

查看配置指南 →

生产部署

学习如何在生产环境中安全、稳定地部署 GPT-Load

查看部署指南 →