目录

MetaX LLMOps MCP

基于 Gitee.AI / 沐曦 GPU 算力环境的大模型调用、性能评测、真实调用日志与报告生成 MCP 工具。

功能说明

  • chat:调用沐曦算力环境中的大模型服务
  • benchmark:批量运行 prompts,统计延迟、成功率等指标
  • export_report:根据真实调用日志生成 Markdown 性能报告
  • JSONL 调用日志:保留真实调用验证材料

使用的模型与算力环境

  • 算力平台:Gitee.AI 平台提供的沐曦资源包 API / 沐曦算力卡
  • 模型名称:待填写
  • API 形式:OpenAI-compatible /v1/chat/completions

快速开始

python -m venv .venv
source .venv/bin/activate
pip install -e .
cp .env.example .env
# 编辑 .env,填入 METAX_BASE_URL / METAX_API_KEY / METAX_MODEL

单次调用:

metax-chat "请介绍沐曦 GPU 在 AI 推理中的价值"

批量 benchmark:

metax-benchmark --prompts examples/prompts.jsonl --repeat 1

导出报告:

metax-report logs/real_call_logs/calls_YYYYMMDD.jsonl --out docs/performance_report.md

启动 MCP:

metax-mcp

示例输入输出

输入:

请用三句话介绍沐曦 GPU 在 AI 推理场景中的价值。

输出:

待真实调用后补充。

Demo 演示

  • Demo 视频链接:待填写
  • 运行截图:见 assets/screenshots/

性能测试结果

详细报告见 docs/performance_report.md

真实调用日志

真实调用日志保存在:

logs/real_call_logs/
logs/benchmark/

公开提交前请确认日志已脱敏,不能包含 API Key 或敏感输入输出。

参考来源与原创说明

本项目参考 MCP Python SDK 的服务组织方式,原创扩展包括:

  1. 面向 Gitee.AI / 沐曦算力模型接口的调用封装;
  2. 面向比赛真实验证要求的 JSONL 日志记录;
  3. 自动 benchmark 与 Markdown 性能报告生成;
  4. 可被 Codex / Claude Code / OpenClaw 调用的 MCP 工具接口。

License

待填写。

关于
48.0 KB
邀请码