pytorch使用gpu对网络计算进行加速
2020-06-29 04:56
2171 查看
1.基本要求
- 你的电脑里面有合适的GPU显卡(NVIDA),并且需要支持CUDA模块
- 你必须安装GPU版的Torch,(详细安装方法请移步pytorch官网)
2.使用GPU训练CNN
利用pytorch使用GPU进行加速方法主要就是将数据的形式变成GPU能读的形式,然后将CNN也变成GPU能读的形式,具体办法就是在后面加上.cuda()。
例如:
#如何检查自己电脑是否支持cuda print torch.cuda.is_available() # 返回True代表支持,False代表不支持 ''' 注意在进行某种运算的时候使用.cuda() ''' test_data=test_data.test_labels[:2000].cuda() ''' 对于CNN与损失函数利用cuda加速 ''' class CNN(nn.Module): ... cnn=CNN() cnn.cuda() loss_f = t.nn.CrossEntropyLoss() loss_f = loss_f.cuda()
而在train时,对于train_data训练过程进行GPU加速。也同样+.cuda()。
for epoch ..: for step, ...: 1 ''' 若你的train_data在训练时需要进行操作 若没有其他操作仅仅只利用cnn()则无需另加.cuda() ''' #eg train_data = torch.max(teain_data, 1)[1].cuda()
补充:取出数据需要从GPU切换到CPU上进行操作
eg:
loss = loss.cpu() acc = acc.cpu()
理解并不全,如有纰漏或者错误还望各位大佬指点迷津
参考资料:
https://morvanzhou.github.io/tutorials/machine-learning/torch/5-02-GPU/
https://cloud.tencent.com/developer/article/1451461
相关文章推荐
- Pytorch 搭建分类回归神经网络并用GPU进行加速的例子
- 关于使用PyTorch设置多线程(threads)进行数据读取而导致GPU显存始终不释放的问题
- pytorch使用多GPU进行训练
- 检测tensorflow是否使用gpu进行计算
- (原)PyTorch中使用指定的GPU
- Pytorch 多块GPU的使用详解
- GTX 750TI 使用 ffmpeg 时无法用 GPU HEVC(h.265) 进行加速
- 如何处理Pytorch使用GPU后仍有GPU资源未释放的情况
- pytorch使用tensorboardX进行loss可视化实例
- 在Docker下使用Nvidia GPU进行计算
- 1.2.3 使用向量化进行加速计算
- PyTorch使用cpu调用gpu训练的模型
- 【问题解决014】Ubuntu16.04下,基于Anaconda+Pycharm,进行Pytorch框架使用
- Theano(Deep Learning Tool) 利用GPU来进行加速的配置及使用
- 使用 GPU 加速计算
- pytorch使用(二)自定义网络
- PyTorch使用并行GPU处理数据
- 用GPU进行TensorFlow计算加速
- Ubuntu16.04下使用Pytorch+detectron的训练模型,进行图片的检测标框主要使用infer_simple.py
- PyTorch中使用预训练的模型初始化网络的一部分参数