Fastest enterprise AI gateway (50x faster than LiteLLM) with adaptive load balancer, cluster mode, guardrails, 1000+ models support & <100 µs overhead at 5k RPS.
推荐理由
README 将它定位为「Fastest enterprise AI gateway (50x faster than LiteLLM) with adaptive load balancer, cluster mode, guardrails, 1000+ models support & <100 µs overhead at 5k RPS」,核心痛点是多模型调用时的成本、准确率和路由决策。它有一定社区验证,同时仍保留发现潜力,最近两周仍在维护,license 清晰,主要技术栈是 Go,适合作为「AI agent 评测与优化」的候选项目。
注意事项
README 摘要信息有限,发布前建议再人工扫一遍文档;展示前建议跑通 README quickstart,并确认部署成本、外部依赖和数据安全边界。