首页 > 解决方案 > 深度可分离卷积需要更多 GPU 内存

问题描述

我读过许多论文和网络文章,它们声称与标准卷积相比,深度可分离卷积减少了深度学习模型所需的内存。但是,我不明白这是怎么回事,因为深度可分离卷积需要存储一个额外的中间步骤矩阵以及最终输出矩阵。

这里有两种情况:

作为额外的证据,当在 pytorch 中使用具有典型 nn.Conv2d 卷积的实现 U-Net 时,该模型具有 17.3M 参数和 320MB 的前向/后向传递大小。如果我将所有卷积替换为深度可分离卷积,则该模型有 2M 参数,以及 500MB 的前向/后向传递大小。所以更少的参数,但需要更多的内存

我确信我在某个地方出错了,因为每篇文章都指出深度可分离卷积需要更少的内存。我的逻辑哪里出了问题?

标签: deep-learningpytorchconv-neural-network

解决方案


推荐阅读