深度学习模型降低GPU显存使用的方法

  1. 减小Batch_size
  2. 优化网络结构,或者改用深度可分离卷积代替常规卷积核,较小参数数量
  3. 选择更小的数据类型
    一般默认情况下, 整个网络中采用的是32位的浮点数,如果切换到 16位的浮点数,其显存占用量将接近呈倍数递减
  4. 做梯度累积,将loss划分为n,即loss = loss / n
    当执行完n步再进行梯度更新

https://blog.csdn.net/zhuiqiuk/article/details/90973240

发布了29 篇原创文章 · 获赞 12 · 访问量 1万+

猜你喜欢

转载自blog.csdn.net/c2250645962/article/details/102582219