如何处理Pytorch使用GPU后仍有GPU资源未释放的情况
2018-12-19 06:48
1081 查看
使用PyTorch设置多线程(threads)进行数据读取(DataLoader),其实是假的多线程,他是开了N个子进程(PID都连着)进行模拟多线程工作,所以你的程序跑完或者中途kill掉主进程的话,子进程的GPU显存并不会被释放,需要手动一个一个kill才行,具体方法描述如下:
1.先关闭ssh(或者shell)窗口,退出重新登录
2.查看运行在gpu上的所有程序:
fuser -v /dev/nvidia*
3.kill掉所有(连号的)僵尸进程
相关文章推荐
- 关于使用PyTorch设置多线程(threads)进行数据读取而导致GPU显存始终不释放的问题
- PyTorch使用并行GPU处理数据
- Linux,du、df统计的硬盘使用情况不一致问题如何处理
- (原)PyTorch中使用指定的GPU
- PyTorch使用指定的GPU
- pytorch使用(一)处理并加载自己的数据
- 在使用代理上网的情况下,如何使用迅雷来下载资源。
- 提高C#编程水平的50个要点 之十五“使用 using 和 try-finally 来处理资源的释放”
- 使用spring的事务控制,这种情况如何处理呢
- 如何对apache 服务器上的资源使用情况进行监控
- android中Thread对于Adapter出现的报错情况的处理以及如何正确使用Spinner与SimpleCurosorAdapter
- [原创]如何在Windows XP 中利用监视计算机中的资源使用情况
- df和du显示的磁盘空间使用情况不一致的原因及处理(文件删除后磁盘空间不释放)
- df和du显示的磁盘空间使用情况不一致的原因及处理(文件删除后磁盘空间不释放)
- 如何在使用eclipse的情况下,清理android项目中的冗余class文件和资源文件以及冗余图片
- Linux环境下如何查看内存CPU和GPU使用情况
- 如何为TensorFlow和PyTorch自动选择空闲GPU,解决抢卡争端
- 如何对Apache服务器上的资源使用情况进行监控
- 如何在Suse_Linux9.0下使用Loadrunner监控服务器资源使用情况
- 在xml布局文件中,我们既可以设置px,也可以设置dp(或者dip)。一般情况下,我们都会选择使用dp,这样可以保证不同屏幕分辨率的机器上布局一致。但是在代码中,如何处理呢?很多控件的方法中都只提供了