美文网首页
模型压缩

模型压缩

作者: xieyan0811 | 来源:发表于2022-10-06 13:56 被阅读0次

模型压缩

对于复杂问题建模时,深度学习模型在容纳更多参数的情况下,效果一般更好,但是模型占内存大,预测时间长的,往往限制其在小型或普通配制的硬件上使用。一般使用模型压缩方法给模型减肥,主要方法总结如下。

模型剪枝

移除对结果作用很小的参数权重,如接近0的参数。具体如去掉某些卷积核,或者卷积核中的某些权重,还有对通通道的减枝,对层的减枝,对注意力头的减枝等。
![[Pasted image 20220925094745.png]]

模型量化

减少存储权重所需的比特数,比如将 float32 降到 int8,基于KMeans的量化方案等等(将训练好的所有参数分成几簇,然后把权重转换成簇索引)。

参数共享

通过共享参数,达到减少网络参数的目的。一个不熟悉的词可由常用词定义,或者用普通单词的嵌入的稀疏组合;又如ALBERT可跨层共享所有参数。

低秩分解

低秩分解的方法运用了矩阵分解和矩阵乘法的结合律。把较大的卷积核分解为两个级联的行卷积核和列卷积核。比如:将一个3×3的卷积层,替换为一个3×1的卷积层加上一个1×3的卷积核。

知识蒸馏

将 teacher 的能力蒸馏到 student上,最近看了一些论文总结如下:

参考

一文详解文本深度学习模型的压缩

相关文章

  • 模型压缩

    一、算法概述 1.1 svd分解 1.1.1 问题引出:对仿射变换进行降维线性近似 对一个卷积层来说,卷积的输出响...

  • 模型压缩

    2018 CVPR论文:Universal Deep Neural Network Compression htt...

  • 模型压缩

    模型压缩的方法,常见的有剪枝(pruning),量化,蒸馏。 pruning 先分析权重或者神经元的重要性,然后去...

  • 模型压缩

    这篇文章主要是根据李宏毅老师介绍的知识要点进行总结【機器學習2021】神經網路壓縮 (Network Compre...

  • 模型压缩

    模型压缩 对于复杂问题建模时,深度学习模型在容纳更多参数的情况下,效果一般更好,但是模型占内存大,预测时间长的,往...

  • 强化学习应用到模型压缩

    本文介绍几篇自动化模型压缩相关论文的主要思想,包括网络结构搜索及自动化模型压缩压缩 一、强化学习基本思想回顾 (一...

  • Learning Efficient Convolutional

    目标:压缩模型尺寸,降低运行时的内存占用,降低计算复杂度,不损失模型精度 方法:channel-level压缩利用...

  • WebGL 几何压缩

    利用Draco几何压缩库压缩顶点、法线、UV、颜色等数据; Draco提供了对obj、gltf格式的模型进行压缩,...

  • bert 模型压缩原理

    1. 压缩目的: 在基本不影响模型效果的基础上,对bert模型进行同构压缩,将layer 与embedding s...

  • BERT 模型蒸馏 TinyBERT

    BERT 的效果好,但是模型太大且速度慢,因此需要有一些模型压缩的方法。TinyBERT 是一种对 BERT 压缩...

网友评论

      本文标题:模型压缩

      本文链接:https://www.haomeiwen.com/subject/xyqzortx.html