Oneflow-Model-Compression
概述
炼知技术平台是一个模型压缩平台,包含剪枝、量化、知识蒸馏等一系列模型压缩策略。
提供完整的模型压缩解决方案,可用于各种类型的自然语言和计算机视觉场景,如文本分类、推理,图像分类等。
另外,平台在不断完善各种压缩策略在经典开源任务的Benchmark,以便用户参考。
同时,平台也提供各种压缩策略的功能算子,方便用户使用、复现最新的论文方法,以及利用压缩算子进行二次开发。
功能
功能模块
|
算法
|
相关文档
|
量化
|
|
|
剪枝
|
|
|
知识蒸馏
|
-
Knowledge Distillation: Hinton, Geoffrey, Oriol Vinyals, and Jeff Dean. "Distilling the knowledge in a neural network." arXiv preprint arXiv:1503.02531 (2015).
-
Distilled-BiLSTM: Tang, Raphael, et al. "Distilling task-specific knowledge from bert into simple neural networks." arXiv preprint arXiv:1903.12136 (2019).
-
BERT-PKD: Sun, Siqi, et al. "Patient knowledge distillation for bert model compression." arXiv preprint arXiv:1908.09355 (2019).
-
TinyBERT: Jiao, Xiaoqi, et al. "Tinybert: Distilling bert for natural language understanding." arXiv preprint arXiv:1909.10351 (2019).
-
MobileBERT: Sun, Zhiqing, et al. "Mobilebert: a compact task-agnostic bert for resource-limited devices." arXiv preprint arXiv:2004.02984 (2020).
-
BERT-Theseus: Xu, Canwen, et al. "Bert-of-theseus: Compressing bert by progressive module replacing." arXiv preprint arXiv:2002.02925 (2020).
-
改进版的BERT-Theseus: Xu, Canwen, et al. "Bert-of-theseus: Compressing bert by progressive module replacing." arXiv preprint arXiv:2002.02925 (2020).
|
|
>
使用
- Oneflow介绍: 深度学习框架Oneflow介绍以及环境安装说明。
- Oneflow快速开始:通过简单示例介绍如何快速3分钟上手使用Oneflow。
- 模型压缩API文档:用户接口文档,包含以下功能
- 高阶教程:包括在CV和NLP等应用场景任务的使用示例、算法使用步骤,高级特性的使用教程。
- 模型库:各个压缩算法在文本分类、推理,图像分类等数据集上的实验结果,包括模型精度、模型尺寸和推理速度。