Initial commit: tokrouter - AI token routing proxy
Features:
- Multi-provider routing (OpenAI, Anthropic, unified API)
- Flexible routing strategies (round-robin, price, latency, quota-based)
- Token estimation and usage tracking
- Rate limiting and quota management
- Hot-reloadable configuration
- Comprehensive test suite
Co-Authored-By: Claude Opus 4.6 noreply@anthropic.com
版权所有:中国计算机学会技术支持:开源发展技术委员会
京ICP备13000930号-9
京公网安备 11010802032778号
tokrouter
LLM API 路由器 - 多 Provider 路由 + 监控 + 格式转换
专为个人用户设计的客户端聚合工具,统一管理多个 LLM API Provider。
功能特性
核心功能
安全与监控
可扩展性
安装
编译安装
运行依赖
配置
创建
config.yaml:环境变量
API Key 支持环境变量:
CLI 命令
启动服务
状态查看
策略切换
统计查看
配置管理
其他命令
API 端点
Chat 端点
/v1/chat/completions/v1/messages请求示例
OpenAI 格式:
Anthropic 格式:
Function Calling:
状态端点
/status/health/metrics/openapi.json状态响应示例
健康检查响应
路由策略
quota_firstprice_firstlatency_firstround_robinmanualStreaming 支持
支持 Server-Sent Events (SSE) 流式响应:
Quota 管理
预警阈值
配置预警阈值后,达到阈值时会触发告警:
Quota 耗尽处理
当 Provider quota 耗尽时:
no available provider错误Prometheus Metrics
访问
/metrics获取指标:Provider 插件化
支持自定义 Provider 实现:
配置热更新
启用配置热更新后,修改配置文件无需重启:
日志输出:
项目结构
使用场景
个人聚合管理
集成示例
Agent 工具集成示例
将 tokrouter 作为各类 AI Agent 工具的后端代理。优先使用配置文件方式。
Claude Code
Anthropic API 格式端点
/v1/messages。配置文件方式(推荐)
配置文件优先级:用户全局 (
~/.claude/settings.json) → 项目配置 (.claude/settings.json) → 项目本地 (.claude/settings.local.json)命令行参数方式
aider
OpenAI 格式端点
/v1/chat/completions。配置文件方式(推荐)
Cursor IDE
OpenAI 格式端点
/v1/chat/completions。配置文件方式
llm CLI
OpenAI 格式端点
/v1/chat/completions。配置文件方式
codex-cli (OpenAI)
OpenAI 格式端点
/v1/chat/completions。配置文件方式
其他 OpenAI 兼容工具
通用配置模式适用于大多数工具:
config.yamlapi_baseconfig.jsonapi_base/openaiBaseUrlconfig.tomlapi_base_url端点映射
/v1/chat/completions/v1/messages安全注意事项
License
MIT