美文网首页
30.深度学习模型压缩方法-4

30.深度学习模型压缩方法-4

作者: 大勇任卷舒 | 来源:发表于2022-12-22 16:25 被阅读0次

30.1 低秩分解

  • 基于低秩分解的深度神经网络压缩与加速的核心思想是利用矩阵或张量分解技术估计并分解深度模型中的原始卷积核
    • 卷积计算是整个卷积神经网络中计算复杂 度 最 高 的 计 算 操 作,通 过 分 解4D 卷积核张量,可以有效地减少模型内部的冗余性
    • 此外对于2D的全 连 接 层 矩 阵 参 数,同样可以利用低秩分解技术进行处理
    • 但由于卷积层与全连接层的分解方式不同,本文分别从卷积层和全连接层2个不同角度回顾与分析低秩分解技术在深度神经网络中的应用
  • 从理论上利用低秩分解的技术并分析了深度神经网络存在大量的冗余信
    息,开创了基于低秩分解的深度网络模型压缩与加速的新思路
    • 如图所示,展示了主流的张量分解后卷积计算


30.2 总体压缩效果评价指标有哪些?

  • 网络压缩评价指标包括运行效率、参数压缩率、准确率
    • 与基准模型比较衡量性能提升时,可以使用提升倍数(speedup)或提升比例(ratio)
评价指标 特点
准确率 目前,大部分研究工作均会测量 Top-1 准确率,只有在 ImageNet 这类大型数据集上才会只用 Top-5 准确率.为方便比较
参数压缩率 统计网络中所有可训练的参数,根据机器浮点精度转换为字节(byte)量纲,通常保留两位有效数字以作近似估计.
运行效率 可以从网络所含浮点运算次数(FLOP)、网络所含乘法运算次数(MULTS)或随机实验测得的网络平均前向传播所需时间这 3 个角度来评价

大数据视频推荐:
网易云课堂
CSDN
人工智能算法竞赛实战
AIops智能运维机器学习算法实战
ELK7 stack开发运维实战
PySpark机器学习从入门到精通
AIOps智能运维实战
腾讯课堂
大数据语音推荐:
ELK7 stack开发运维
企业级大数据技术应用
大数据机器学习案例之推荐系统
自然语言处理
大数据基础
人工智能:深度学习入门到精通

相关文章

  • 30.深度学习模型压缩方法-4

    30.1 低秩分解 基于低秩分解的深度神经网络压缩与加速的核心思想是利用矩阵或张量分解技术估计并分解深度模型中的原...

  • 27.深度学习模型压缩方法-1

    目前深度学习模型压缩方法主要分为更精细化模型设计、模型裁剪、核的稀疏化、量化、低秩分解、迁移学习等方法,而这些方法...

  • 深度学习模型压缩与加速(一)综述

    由于我们的深度学习模型都部署在移动端,所以本篇就来总结一下深度学习模型压缩的方法。相对于服务器,移动端的存储空间、...

  • 常用的深度学习模型压缩和加速方法

    现有的深度模型压缩方法,主要分为四类: 参数修剪和共享(parameter pruning and sharing...

  • PyTorch模型减枝技术-pruning

    介绍 减枝(prune)是深度学习模型压缩常见的技术之一, 目的是使得CNN/RNN/Transformer等模型...

  • 深度学习-知识蒸馏

    出于计算资源的限制或效率的要求,深度学习模型在部署推断时往往需要进行压缩,模型蒸馏是其中一种常见方法。将原始数据集...

  • 深度学习模型压缩框架

    深度学习模型压缩和加速主要有以下几个方向:更小更快的网络结构设计、模型裁剪以及核稀疏化、量化、Low-rank分解...

  • 深度学习模型压缩技巧

    一、首先,为什么网络模型需要模型压缩? 通常:给定一个精度级别,存在多个达到该精度级别的CNN架构。在同等精度下,...

  • 28.深度学习模型压缩方法-2

    28.1 典型剪枝方法对比 剪枝方法修剪对象修剪方式效果Deep Compression权重随机修剪50倍压缩St...

  • 29.深度学习模型压缩方法-3

    29.1 后端压缩 (1)低秩近似 在卷积神经网络中,卷积运算都是以矩阵相乘的方式进行 对于复杂网络,权重矩阵往往...

网友评论

      本文标题:30.深度学习模型压缩方法-4

      本文链接:https://www.haomeiwen.com/subject/uqymqdtx.html