GPT-Load 项目简介

一个高性能、企业级的 AI 接口透明代理服务,专门为需要集成多种 AI 服务的企业和开发者设计。 采用 Go 语言开发,具备智能密钥管理、负载均衡和完善的监控功能,专为高并发生产环境而设计。

核心概念

透明代理

GPT-Load 作为透明代理服务,完全保留各 AI 服务商的原生 API 格式,不做任何格式转换或统一。 用户如何请求 GPT-Load,GPT-Load 就如何请求上游服务,实现完全透明的代理功能。

支持的 AI 服务

OpenAI

  • • 官方 OpenAI API
  • • Azure OpenAI
  • • 所有兼容 OpenAI 格式的第三方服务

Google Gemini

  • • Gemini Pro
  • • Gemini Pro Vision
  • • 支持多模态功能

Anthropic Claude

  • • Claude 系列模型
  • • 高质量对话生成
  • • 原生 API 格式支持

核心特性

高性能架构

零拷贝流式传输,基于 Go 协程的并发模型,支持高并发连接

智能密钥管理

分组管理、动态轮换、自动重试,确保服务高可用性

负载均衡

多上游支持、权重配置、健康检查,智能路由到可用节点

集群支持

Master/Slave 架构,无状态设计,支持水平扩展

热重载配置

三层配置系统,环境变量、系统设置、分组配置,支持热更新

管理后台

Vue 3 现代化界面,实时监控、日志查看、配置管理

技术栈

后端技术

  • Go 1.23+ - 主要编程语言
  • Gin - HTTP Web 框架
  • GORM - ORM 数据库操作框架
  • MySQL 8.2+ - 主数据库存储
  • Redis - 分布式缓存和状态管理
  • Uber Dig - 依赖注入容器

前端 & 运维

  • Vue 3 - 前端框架
  • TypeScript - 类型安全
  • Naive UI - UI 组件库
  • Docker - 容器化部署
  • Docker Compose - 容器编排
  • GitHub Actions - CI/CD 流水线

架构优势

微服务架构

  • • 模块化设计
  • • 依赖注入
  • • 接口驱动

分布式设计

  • • Master/Slave 模式
  • • 分布式锁
  • • 缓存同步

高可用性

  • • 优雅降级
  • • 故障恢复
  • • 资源保护

应用场景

企业级 AI 服务

  • • 大规模 API 调用
  • • 成本控制优化
  • • 服务稳定性保障

开发者工具

  • • API 统一接入
  • • 调试和监控
  • • 快速部署

多租户服务

  • • 租户隔离
  • • 配置定制
  • • 使用统计

开始使用 GPT-Load

通过 Docker Compose 快速部署,几分钟内即可启动完整的 AI 接口代理服务

查看部署指南