• 首页 首页 icon
  • 工具库 工具库 icon
    • IP查询 IP查询 icon
  • 内容库 内容库 icon
    • 快讯库 快讯库 icon
    • 精品库 精品库 icon
    • 问答库 问答库 icon
  • 更多 更多 icon
    • 服务条款 服务条款 icon

cuda out of memorypytorch问题的解决

武飞扬头像
10000hours
帮助1

最近在训练网络,发现无法使用GPU,一直报错cuda out of memory.查阅了网上很多方法,记录一下我的解决过程。

可能原因及解决方法

(一)

原因:大量其他进程占用了GPU
解决:kill占用GPU的进程,释放GPU
参考博文:链接

(二)

原因:batch_size过大
解决:将batch_size调小一点,再次测试看能否运行。

(三)

原因:不知道这个怎么描述,没有用到所有的GPU?
解决:在代码中添加os.environ['CUDA_VISIBLE_DEVICES']="0, 1",这个序号是你的设备的GPU的编号,我的设备上只有0,1号GPU。
参考博文:链接

(四)

原因:程序运行过程中产生大量中间量,pytorch不清除这些中间量,从而造成了GPU爆内存。
解决:清除过程中产生的中间量
参考博文:添加链接描述

我的问题的解决

修改过程

上述的(一)(二)(三)(四)都尝试了之后,未能解决我的程序的问题。
我的程序报错的地方:
学新通
将其改为:
学新通
这一步不保存中间的梯度信息。
继续报错:element 0 of tensors does not require grad and does not have a grad_fn
继续改,原因是require_grad是False,改为True:train_loss = train_loss.requires_grad_(True)
哦莫,就成了!喜大普奔!还是GPU跑得快啊!
学新通

说明

当我把batch_size改成8后就又跑不动了,我的GPU太拉胯了,最后batch_size改为4跑的。

小疑问

运行时,CPU的利用率70% ,GPU0的利用率恒为1%,GPU1的利用率不到20%,磁盘利用率大幅增加。为什么CPU的利用率仍然这么高?而GPU的利用率却不是很高?之前用CPU跑的时候,每次CPU的利用率都接近100%。难道是我电脑显卡不好?!

这篇好文章是转载于:学新通技术网

  • 版权申明: 本站部分内容来自互联网,仅供学习及演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,请提供相关证据及您的身份证明,我们将在收到邮件后48小时内删除。
  • 本站站名: 学新通技术网
  • 本文地址: /boutique/detail/tanhiekaii
系列文章
更多 icon
同类精品
更多 icon
继续加载