Add 111.txt
欢迎参加 评测数据集生成挑战赛 📊! 本比赛旨在构建一个标准化、可用于 GPU 性能测试的评测数据集,帮助开发者更高效地比较不同硬件和框架的性能表现。
在 AI 模型开发和部署中,GPU 性能评测是一个非常重要的环节。 不同 GPU、不同深度学习框架(如 PyTorch、TensorFlow、PaddlePaddle 等)在运行相同任务时,速度、吞吐量、内存占用等表现差异很大。 本次挑战赛希望通过社区的力量,构建一个标准化、带权重的评测数据集,让 GPU 性能比较更加科学、公正。
进入GPUCodeForces赛事首页,登录参与本期比赛的Gitee账号,完成一份成功合并到仓库内的提交即为参赛成功!时间自由,方法自由,只要有灵感就可以动手开code~
登录or注册自己的Gitlink账号后,进入赛事首页查看仓库内的文件内容。仔细阅读how-to-contribute.md,完成CLA签署,并熟悉提交流程。
看到仓库内文件,有一个example文件夹:
这是我们提供的一个样例,接下来我们在这个基础上进行一次完整的算子优化的提交(我们鼓励大家自己找到更好的算子并优化)。
我们将样例clone到自己电脑上, 并关注四份文件: torchcode.py、prompt.txt、cudacode_ori.py、example_cudacode.py,最终需要提交的代码文件正是这四个。本次比赛在模力方舟平台上使用算力券购买容器实例:
接着便可以在云端实例上进行代码修改。相关算力券的领取方式请见算力平台使用说明、算力券兑换发放和兑换。
然后在该比赛仓库新建一个issue,填写赛题。这里我们是对example-001算子优化,因此issue的主题就可以是“对001-example数据集进行性能优化”:
可以看到这里有一个“#2”,这是issue id,你的算子优化、新算子都应该绑定一个独立的issue id(最终有多少份issue被审核通过,就表示提交成功了多少份)。在即将提交的时候,在该赛题仓库的S1文件夹下新建一个以该id命名(无需带#号)的文件夹,该文件夹内容为四份必要文件和其他视参赛者情况需要补充的材料(如readme文件、用到的其他数据集等):
准备工作就绪,接下来看到example-001内的代码:
example_torchcode.py: 基准模型(Baseline)。示例提供一个简单的PyTorch模型,只包含一个ReLU激活函数。
example_cudacode.py:优化模型。示例使用PyTorch的load_inline功能直接编译和加载CUDA代码,创建了一个新的模型类,使用自定义CUDA实现替代PyTorch的ReLU。
run_code.py:验证和性能测试脚本。验证自定义CUDA实现与原始PyTorch实现的数值精度一致性,比较两种实现的性能,计算加速比。
prompt.txt:这里给予参赛者一些提示:
要求编写自定义CUDA内核来替换PyTorch算子以获得加速
可以自由选择替换哪些算子,考虑算子融合机会
提供了示例语法和内联嵌入自定义CUDA算子的方法
给出了需要优化的模型架构(简单的ReLU模型)
然后参照example-001文件夹创建自己的文件夹:提出新的torch cude对,其中torch可来源于PyTorch、PaddlePaddle、TensorFlow、Jax、MMCV、Transformers等框架,可以是单个算子也可以是多个算子融合。cuda代码可自己编写或者参照prompt.txt让LLM辅助编写
优化好后,可以在模力方舟的实例上运行:
python run_code.py
确保能够正确输出结果后再准备提交。
接下来将优化好的代码保存到本地,然后参照how-to-contribute.md的指引进行代码仓库的提交与合并。
最终,成功提交的代码会合并到 S1/#your_issue id 下,并且你的相关pr也会关闭。就像下面这样:
🌳一份完整的提交流程如上,期待各位自由发挥,赛出风采与水平!
建议在开始做题目之前创建一个赛题,提交的PR和自己创建的赛题相关联。参赛选手在每个比赛周期的目录下(例如:第一期S1、第二期S2、第三期S3…)创建一个目录,目录名称赛题的ID(ICTXSZ),例如:
. ├── S1(说明:第一季比赛名称) │ ├── ICTXSZ(说明:以赛题ID命名的目录存放PR提交样本的目录) | | ├── 示例代码 │ | ├── 对比代码 | | └── …… │ └── …… └── S2(第二季比赛) └── 赛题1
也就是说,除了能够自己在服务器上运行得到算子测算的初步结果外,还可以在这里看到最终的测算结果。这里显示测试通过才能进入后续审核流程。
接受数量 = 提交并被评审通过的样本总数
接受数量相同需要区分排名时如下的基础和甲方的评分规则才会生效
如需更多信息或格式说明,请查看官方文档或在本仓库提交想法进行讨论。 祝你挑战成功,贡献出高质量的 GPU 评测数据集!🚀
第一季FAQ参考
©Copyright 2023 CCF 开源发展委员会 Powered by Trustie& IntelliDE 京ICP备13000930号
子赛题一、评测数据集生成挑战赛
欢迎参加 评测数据集生成挑战赛 📊! 本比赛旨在构建一个标准化、可用于 GPU 性能测试的评测数据集,帮助开发者更高效地比较不同硬件和框架的性能表现。
💻 比赛背景简介
在 AI 模型开发和部署中,GPU 性能评测是一个非常重要的环节。 不同 GPU、不同深度学习框架(如 PyTorch、TensorFlow、PaddlePaddle 等)在运行相同任务时,速度、吞吐量、内存占用等表现差异很大。 本次挑战赛希望通过社区的力量,构建一个标准化、带权重的评测数据集,让 GPU 性能比较更加科学、公正。
🎯 比赛目标
📥 参赛流程
进入GPUCodeForces赛事首页,登录参与本期比赛的Gitee账号,完成一份成功合并到仓库内的提交即为参赛成功!时间自由,方法自由,只要有灵感就可以动手开code~
🌰举个栗子
登录or注册自己的Gitlink账号后,进入赛事首页查看仓库内的文件内容。仔细阅读how-to-contribute.md,完成CLA签署,并熟悉提交流程。
看到仓库内文件,有一个example文件夹:
这是我们提供的一个样例,接下来我们在这个基础上进行一次完整的算子优化的提交(我们鼓励大家自己找到更好的算子并优化)。
我们将样例clone到自己电脑上, 并关注四份文件: torchcode.py、prompt.txt、cudacode_ori.py、example_cudacode.py,最终需要提交的代码文件正是这四个。本次比赛在模力方舟平台上使用算力券购买容器实例:
接着便可以在云端实例上进行代码修改。相关算力券的领取方式请见算力平台使用说明、算力券兑换发放和兑换。
然后在该比赛仓库新建一个issue,填写赛题。这里我们是对example-001算子优化,因此issue的主题就可以是“对001-example数据集进行性能优化”:
可以看到这里有一个“#2”,这是issue id,你的算子优化、新算子都应该绑定一个独立的issue id(最终有多少份issue被审核通过,就表示提交成功了多少份)。在即将提交的时候,在该赛题仓库的S1文件夹下新建一个以该id命名(无需带#号)的文件夹,该文件夹内容为四份必要文件和其他视参赛者情况需要补充的材料(如readme文件、用到的其他数据集等):
准备工作就绪,接下来看到example-001内的代码:
example_torchcode.py: 基准模型(Baseline)。示例提供一个简单的PyTorch模型,只包含一个ReLU激活函数。
example_cudacode.py:优化模型。示例使用PyTorch的load_inline功能直接编译和加载CUDA代码,创建了一个新的模型类,使用自定义CUDA实现替代PyTorch的ReLU。
run_code.py:验证和性能测试脚本。验证自定义CUDA实现与原始PyTorch实现的数值精度一致性,比较两种实现的性能,计算加速比。
prompt.txt:这里给予参赛者一些提示:
要求编写自定义CUDA内核来替换PyTorch算子以获得加速
可以自由选择替换哪些算子,考虑算子融合机会
提供了示例语法和内联嵌入自定义CUDA算子的方法
给出了需要优化的模型架构(简单的ReLU模型)
然后参照example-001文件夹创建自己的文件夹:提出新的torch cude对,其中torch可来源于PyTorch、PaddlePaddle、TensorFlow、Jax、MMCV、Transformers等框架,可以是单个算子也可以是多个算子融合。cuda代码可自己编写或者参照prompt.txt让LLM辅助编写
优化好后,可以在模力方舟的实例上运行:
确保能够正确输出结果后再准备提交。
接下来将优化好的代码保存到本地,然后参照how-to-contribute.md的指引进行代码仓库的提交与合并。
最终,成功提交的代码会合并到 S1/#your_issue id 下,并且你的相关pr也会关闭。就像下面这样:
🌳一份完整的提交流程如上,期待各位自由发挥,赛出风采与水平!
📦 提交PR内容
📦 提交PR的格式
建议在开始做题目之前创建一个赛题,提交的PR和自己创建的赛题相关联。参赛选手在每个比赛周期的目录下(例如:第一期S1、第二期S2、第三期S3…)创建一个目录,目录名称赛题的ID(ICTXSZ),例如:
⭐审核流程
也就是说,除了能够自己在服务器上运行得到算子测算的初步结果外,还可以在这里看到最终的测算结果。这里显示测试通过才能进入后续审核流程。
✅ 参赛资格
⚠️注意事项
-–相近优化:即指同一份参赛用例在优化后加速比没有提升或更低的用例提交
🏅 竞赛排名机制
📈 评分规则
📊 基础得分
✨ 加分项
📚 术语解释
📬 联系与帮助
如需更多信息或格式说明,请查看官方文档或在本仓库提交想法进行讨论。 祝你挑战成功,贡献出高质量的 GPU 评测数据集!🚀
FAQ
第一季FAQ参考