目录
目录README.md

子赛题二、GPU 开源生态挑战赛

📌 挑战方向

模型迁移

  • 单 Transformers 模型迁移到 vLLM / SGLang(可运行并优化)
  • 参考LMDeploy开源适配模型实现,实现未支持的多型在国产算力上运行
  • 其它有价值的迁移,以最终提交审核为准

论文复现

  • AI4S 领域前沿论文复现与性能加速

生态破局

  • 将 CUDA AI 开源软件迁移至国产开源MACA软件栈

生态繁荣

其它可参考项目列表

其它方向

▶ 项目价值:推动国产 AI 基础设施自主化的有价值的领域。

📤 提交要求及评分标准

参赛资格

  • 提交的代码可在MACA软件栈+曦云C500上运行的内容。

提交内容(赛题Iusse附上对应PR的link,注意提交邮箱必须一致)

  • 代码
  • 部署脚本
  • 环境配置
  • 在线复现环境
  • 文档

文档要求

  • 验收测试用例
  • 使用手册

评分标准

  • 能成功复现运行:60 分
  • 输出正确结果(参考 CUDA 平台):61~100 分

加分项

  • 提供性能优化,且提供可复现的对比测试报告:+0~50 分

🏆 排名机制

  • 评委评分从高到低排序
  • 若分数相同:
    • 性能提升高者优先
    • 内容完整性高者优先
关于

在CUDA成为目前最主流的开源AI生态,如何能高效的构建兼容CUDA的GPGPU软件生态会成为后续AI生态成长很重要的一个方向。通过该赛题的挑战,能摸索一条相对快速的适配上游社区快速支持国产MACA软件生态。利用MACA兼容CUDA的GPU软件生态,实现GPU软件生态的快速适配,并尝试利用GPU软件生态的优化,提高模型性能。

404.0 KB
邀请码
    Gitlink(确实开源)
  • 加入我们
  • 官网邮箱:gitlink@ccf.org.cn
  • QQ群
  • QQ群
  • 公众号
  • 公众号

©Copyright 2023 CCF 开源发展委员会
Powered by Trustie& IntelliDE 京ICP备13000930号