Are you sure you want to delete this task? Once this task is deleted, it cannot be recovered.
|
|
2 months ago | |
|---|---|---|
| .gitee/ISSUE_TEMPLATE | 2 months ago | |
| S1/ICVXKH | 2 months ago | |
| example/001-example | 3 months ago | |
| images | 2 months ago | |
| FAQ.md | 2 months ago | |
| LICENSE | 3 months ago | |
| README.md | 2 months ago | |
| how-to-contribute.md | 2 months ago | |
欢迎参加 评测数据集生成挑战赛 📊! 本比赛旨在构建一个标准化、可用于 GPU 性能测试的评测数据集,帮助开发者更高效地比较不同硬件和框架的性能表现。
在 AI 模型开发和部署中,GPU 性能评测是一个非常重要的环节。 不同 GPU、不同深度学习框架(如 PyTorch、TensorFlow、PaddlePaddle 等)在运行相同任务时,速度、吞吐量、内存占用等表现差异很大。 本次挑战赛希望通过社区的力量,构建一个标准化、带权重的评测数据集,让 GPU 性能比较更加科学、公正。
从 PyTorch、PaddlePaddle、TensorFlow、Jax、MMCV、Transformers 等框架中收集并生成评测样本。
为每个样本提供标准输出和性能指标,确保结果可复现。
最终形成 GPU CodeForces 数据集和评价方法。
提交完成后,返回Issue主页可以看到自己的提交记录,可以复制Issue id进行保存:
然后把源项目克隆至本地,文件路径可以根据自己的喜好来:
在克隆仓库或本地文件夹内都可以大展你的身手,进行算子优化了🎉!
git init
git remote add origin https://gitee.com/your-name/GPUCodeForces.git
git remote -v
#成功后应显示:
#origin https://gitee.com/your-name/GPUCodeForces.git (fetch)
#origin https://gitee.com/your-name/GPUCodeForces.git (push)
git add .
git commit -m "填写本次提交记录,如'第一次提交'"
git push -u origin master
#最后一步需要根据自身的实际仓库分支来,一般为master,也可能为main或者你自定义的目录名称,可以使用 git push --upstream orgin 目录名
一个PR包含样本的目录 提交样例
每个提交目录建议包含如下:
示例代码: torch代码示例
对比代码: 和torch对应的CUDA代码
测试代码入口: run_code.py(请务必用这个名称,提交的PR会根据这个名称在GPU上测试结果)
其它文件(或目录): prompt(利用LLM从torch代码生成cuda代码的prompt示例)或者其它优化代码
PR目录说明文件: https://gitee.com/ccf-ai-infra/GPUCodeForces/blob/main/example/001-example/readme.md
建议在开始做题目之前创建一个赛题,提交的PR和自己创建的赛题相关联。参赛选手在每个比赛周期的目录下(例如:第一期S1、第二期S2、第三期S3...)创建一个目录,目录名称赛题的ID(ICTXSZ),例如:
.
├── S1(说明:第一季比赛名称)
│ ├── ICTXSZ(说明:以赛题ID命名的目录存放PR提交样本的目录)
| | ├── 示例代码
│ | ├── 对比代码
| | └── ……
│ └── ……
└── S2(第二季比赛)
└── 赛题1
也就是说,除了能够自己在服务器上运行得到算子测算的初步结果外,还可以在这里看到最终的测算结果。这里显示测试通过才能进入后续审核流程。
请勿抄袭他人代码或成果
请勿恶意提交(如相同算子多次提交、相近优化重复提交)
---相近优化:即指同一份参赛用例在优化后加速比没有提升或更低的用例提交
请遵守提交的格式要求、内容规范
优先按接受数量从高到低排序作为排名,取前12名。
若接受数量相同:
比较总基础评分高者优先
若仍相同,比加分项得分高者优先
接受数量 = 提交并被评审通过的样本总数
接受数量相同需要区分排名时如下的基础和甲方的评分规则才会生效
| 内容 | 分值 |
|---|---|
| 提供标准 GT 输出生成函数(Numpy-CPU / 原始框架实现) | +2 分 |
| CUDA 执行时间评估 | +5 分 |
| CUDA 吞吐量评估 | +4 分 |
| CUDA 内存带宽评估 | +3 分 |
| 内容 | 分值 |
|---|---|
| 提供 Prompt 让 LLM 生成对应的 CUDA 代码,并同样进行性能评价 | 额外加分 |
评测数据集:用来测试 GPU 性能的一组标准化样本,包括代码、输入数据和预期结果。
GT(Ground Truth):标准参考答案或结果,用来验证程序运行是否正确。
吞吐量(Throughput):每秒钟能处理的数据量,越高表示 GPU 处理能力越强。
内存带宽(Memory Bandwidth):单位时间内 GPU 内存与计算核心之间的数据传输速度。
Prompt:引导大语言模型(LLM)生成代码或内容的提示词。
LLM:Large Language Model,大语言模型,如 ChatGPT、LLaMA 等。
如需更多信息或格式说明,请查看官方文档或在本仓库提交想法进行讨论。 祝你挑战成功,贡献出高质量的 GPU 评测数据集!🚀
No Description
Python Markdown Text