轻量化网络,在实际上最有效。
全连接网络里,多加一层,参数变少,相当于中间压缩了。

每个通道有个核,对应卷积,再使用1×1卷积核,融合不同通道的特征。

与原始cnn对比,感受野一样。

参数量对比:
O很大,所以大概是 1/ k* k,k=3就是原来参数的1/9.

轻量化网络,在实际上最有效。
全连接网络里,多加一层,参数变少,相当于中间压缩了。
每个通道有个核,对应卷积,再使用1×1卷积核,融合不同通道的特征。
与原始cnn对比,感受野一样。
本文标题:模型压缩(四):调整架构设计
本文链接:https://www.haomeiwen.com/subject/dgsowhtx.html
网友评论