安装部署
GPT-Load 支持多种部署方式,选择最适合您环境的方式快速开始
Docker 部署(推荐)
✅ 推荐理由
- • 环境隔离,避免依赖冲突
- • 一键部署,简单快捷
- • 支持容器编排和扩展
- • 生产环境首选方案
快速开始
1. 拉取镜像
docker pull ghcr.io/tbphp/gpt-load:latest
2. 创建密钥文件
# 每行一个 API 密钥
echo "sk-your-openai-key-1" > keys.txt
echo "sk-your-openai-key-2" >> keys.txt
echo "sk-your-openai-key-3" >> keys.txt
3. 启动容器
docker run -d \
--name gpt-load \
-p 3000:3000 \
-v $(pwd)/keys.txt:/app/keys.txt:ro \
ghcr.io/tbphp/gpt-load:latest
4. 验证服务
# 检查健康状态
curl http://localhost:3000/health
# 查看统计信息
curl http://localhost:3000/stats
🎉 部署完成!
您的 GPT-Load 服务现在运行在 http://localhost:3000
使用 Docker Compose
对于生产环境或需要持久化配置的场景,推荐使用 Docker Compose:
创建 docker-compose.yml
version: '3.8'
services:
gpt-load:
image: ghcr.io/tbphp/gpt-load:latest
container_name: gpt-load
ports:
- "3000:3000"
volumes:
- ./keys.txt:/app/keys.txt:ro
- ./logs:/app/logs
environment:
- LOG_LEVEL=info
- MAX_CONCURRENT_REQUESTS=100
- ENABLE_CORS=true
restart: unless-stopped
启动服务
# 启动服务
docker-compose up -d
# 查看日志
docker-compose logs -f
# 停止服务
docker-compose down
环境变量配置
变量名 | 默认值 | 说明 |
---|---|---|
PORT | 3000 | 服务器监听端口 |
KEYS_FILE | keys.txt | API 密钥文件路径 |
OPENAI_BASE_URL | https://api.openai.com | 上游 API 地址 |
MAX_CONCURRENT_REQUESTS | 100 | 最大并发请求数 |
测试服务
健康检查
curl http://localhost:3000/health
# 响应示例
{
"status": "healthy",
"timestamp": "2024-01-01T00:00:00Z",
"uptime": "1h30m45s"
}
发送测试请求
curl -X POST http://localhost:3000/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer sk-your-api-key" \
-d '{
"model": "gpt-3.5-turbo",
"messages": [
{"role": "user", "content": "Hello, world!"}
]
}'