Surface AI blindspots before you ship. Put up to 8 AI models on every research, design or coding task.

Shellmitai-agentsai-orchestrationclaude-codeclaude-code-plugin

推荐理由
README 将它定位为「Surface AI blindspots before you ship」,核心痛点是让 AI agent 通过可复用 skills 和工具流程处理具体任务。它有一定社区验证,同时仍保留发现潜力,最近两周仍在维护,license 清晰,主要技术栈是 Shell,适合作为「AI agent 工具链」的候选项目。

注意事项
README 摘要信息有限,发布前建议再人工扫一遍文档;展示前建议跑通 README quickstart,并确认部署成本、外部依赖和数据安全边界。

README 摘要

Surface AI blindspots before you ship. Put up to 8 AI models on every research, design or coding task.

Stars
3,280
Forks
291
Last push
2026/5/8

相似项目

tailcallhq/forgecode

AI enabled pair programmer for Claude, GPT, O Series, Grok, Deepseek, Gemini and 300+ models

GitHub
7.2K
stars
Rustapache-2.0ai-pair-programmingai-workflowsartifical-intelligenseclaude-3-7-sonnet

推荐理由:README 将它定位为「AI enabled pair programmer for Claude, GPT, O Series, Grok, Deepseek, Gemini and 300+ models」,核心痛点是让 AI agent 通过可复用 skills 和工具流程处理具体任务。它有一定社区验证,同时仍保留发现潜力,最近两周仍在维护,license 清晰,主要技术栈是 Rust,适合作为「AI agent 工具链」的候选项目。

注意事项:README 摘要信息有限,发布前建议再人工扫一遍文档;展示前建议跑通 README quickstart,并确认部署成本、外部依赖和数据安全边界。

llm-d/llm-d

Achieve state of the art inference performance with modern accelerators on Kubernetes

GitHub
3.2K
stars
Shellapache-2.0aicncfdistributed-inferencegpu

推荐理由:README 将它定位为「Achieve state of the art inference performance with modern accelerators on Kubernetes Achieve SOTA Inference Performance On Any Accelerator llm-d is a high-performance distributed inference serving stack optimized for production deployments on Kubernetes」,核心价值是把 README 中描述的能力做成可以直接评估的开源...

注意事项:展示前建议跑通 README quickstart,并确认部署成本、外部依赖和数据安全边界。