Fix
随着ChatGPT的出圈,大语言模型层出不穷,并展现出非凡的能力,可以有效地解决各种问题。然而,这些模型通常需要大量的计算资源和内存,导致运行时资源消耗较高,限制了其在某些场景下的应用,让很多研究者望而却步。本项目使用通俗易懂的语言介绍模型的剪枝、量化、知识蒸馏、低秩分解等压缩方法,让更多的小白能更快了解到模型压缩技术。
在线阅读地址: https://datawhalechina.github.io/awesome-compression
目前网上关于模型压缩的相关资料比较驳杂,初学者很难找到一个简单优质的的中文入门教程来学习。本项目借鉴MIT 6.5940 TinyML and Efficient Deep Learning Computing,提供模型压缩的入门教程,降低模型压缩的学习门槛。在教程中,您将了解不同的压缩方法,通过实践和示例,学习如何应用这些方法来压缩深度学习模型,以满足实际应用需求。
本项目适合以下学习者:
Node v16
npm i docsify-cli -g
docsify serve ./docs
本项目实践代码基于Python 3.10,推荐使用conda虚拟环境进行安装。
requirements.txt 文件内容如下:
numpy==1.24.3 matplotlib==3.9.2 tqdm==4.66.5 jupyter==1.1.1 torch==2.1.0 torchvision==0.16.0 torchprofile==0.0.4 torchsummary==1.5.1 fast-pytorch-kmeans scipy datasets
使用以下命令创建虚拟环境
conda create -n compression python=3.10 conda activate compression pip install -r requirements.txt
若对大模型压缩感兴趣,欢迎关注Datawhale开源项目llm-deploy
如果你对 Datawhale 很感兴趣并想要发起一个新的项目,欢迎查看 Datawhale 贡献指南。
Made with contrib.rocks.
扫描下方二维码关注公众号:Datawhale
本作品采用知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议进行许可。
模型压缩的小白入门教程,PDF下载地址 https://github.com/datawhalechina/awesome-compression/releases
©Copyright 2023 CCF 开源发展委员会 Powered by Trustie& IntelliDE 京ICP备13000930号
Awesome Compression
项目简介
随着ChatGPT的出圈,大语言模型层出不穷,并展现出非凡的能力,可以有效地解决各种问题。然而,这些模型通常需要大量的计算资源和内存,导致运行时资源消耗较高,限制了其在某些场景下的应用,让很多研究者望而却步。本项目使用通俗易懂的语言介绍模型的剪枝、量化、知识蒸馏、低秩分解等压缩方法,让更多的小白能更快了解到模型压缩技术。
在线阅读地址: https://datawhalechina.github.io/awesome-compression
项目意义
目前网上关于模型压缩的相关资料比较驳杂,初学者很难找到一个简单优质的的中文入门教程来学习。本项目借鉴MIT 6.5940 TinyML and Efficient Deep Learning Computing,提供模型压缩的入门教程,降低模型压缩的学习门槛。在教程中,您将了解不同的压缩方法,通过实践和示例,学习如何应用这些方法来压缩深度学习模型,以满足实际应用需求。
项目受众
本项目适合以下学习者:
项目亮点
本地在线阅读环境安装
Node.js版本
Node v16
安装docsify
启动docsify
环境安装
本项目实践代码基于Python 3.10,推荐使用conda虚拟环境进行安装。
requirements.txt 文件内容如下:
使用以下命令创建虚拟环境
目录
参与贡献
如果你对 Datawhale 很感兴趣并想要发起一个新的项目,欢迎查看 Datawhale 贡献指南。
贡献者名单
致谢
Made with contrib.rocks.
关注我们
扫描下方二维码关注公众号:Datawhale
LICENSE
本作品采用知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议进行许可。
Star History