docs: add vllm-metax repo inspection
基于 Gitee.AI / 沐曦 GPU 算力环境的大模型调用、性能评测、真实调用日志与报告生成 MCP 工具。
chat
benchmark
export_report
/v1/chat/completions
python -m venv .venv source .venv/bin/activate pip install -e . cp .env.example .env # 编辑 .env,填入 METAX_BASE_URL / METAX_API_KEY / METAX_MODEL
单次调用:
metax-chat "请介绍沐曦 GPU 在 AI 推理中的价值"
批量 benchmark:
metax-benchmark --prompts examples/prompts.jsonl --repeat 1
导出报告:
metax-report logs/real_call_logs/calls_YYYYMMDD.jsonl --out docs/performance_report.md
启动 MCP:
metax-mcp
输入:
请用三句话介绍沐曦 GPU 在 AI 推理场景中的价值。
输出:
待真实调用后补充。
assets/screenshots/
详细报告见 docs/performance_report.md。
docs/performance_report.md
真实调用日志保存在:
logs/real_call_logs/ logs/benchmark/
公开提交前请确认日志已脱敏,不能包含 API Key 或敏感输入输出。
本项目参考 MCP Python SDK 的服务组织方式,原创扩展包括:
待填写。
MetaX LLMOps MCP
基于 Gitee.AI / 沐曦 GPU 算力环境的大模型调用、性能评测、真实调用日志与报告生成 MCP 工具。
功能说明
chat:调用沐曦算力环境中的大模型服务benchmark:批量运行 prompts,统计延迟、成功率等指标export_report:根据真实调用日志生成 Markdown 性能报告使用的模型与算力环境
/v1/chat/completions快速开始
单次调用:
批量 benchmark:
导出报告:
启动 MCP:
示例输入输出
输入:
输出:
Demo 演示
assets/screenshots/性能测试结果
详细报告见
docs/performance_report.md。真实调用日志
真实调用日志保存在:
公开提交前请确认日志已脱敏,不能包含 API Key 或敏感输入输出。
参考来源与原创说明
本项目参考 MCP Python SDK 的服务组织方式,原创扩展包括:
License
待填写。