您的位置:首页 > 其它

【pytorch源码赏析】nn.XX VS nn.functional.XX

2017-08-02 15:02 519 查看
先来看代码

import torch
import torch.nn as nn
import torch.nn.functional as F

class Net(nn.Module):
def __init__(self):
super(Net, self).__init__()
self.conv1_1 = nn.Conv2d(3, 64, 3, padding=1)
self.conv1_2 = nn.Conv2d(64, 3, 3, padding=1)
self.pool1 = nn.MaxPool2d(kernel_size=3, stride=2, padding=1)
def forward(self, x):
x = F.relu(self.conv1_1(x))
x = self.pool1(F.relu(self.conv1_2(x)))
return x


定义网络的时候,有时候用nn.Conv2d,有时候用F.relu,两者有什么区别吗?

从上面代码可以看出,nn.Conv2d要先声明,像上面的8,9,10行,然后再调用,参与构建模型。而F.relu,直接使用,并没有声明的环节。

看源码。F.relu源码nn.Conv2d源码

# F.relu
def relu(input, inplace=False):
return _functions.thnn.Threshold.apply(input, 0, 0, inplace)


F.relu仅仅是一个函数,参数包括输入和计算所需参数,返回计算结果。它不能存储任何上下文信息。所有的function函数都从基类Function派生,实现forward和backward静态方法。而在forward和backward实现内部,调用了C的后端实现。比如下面这个MaxPool1d:

class MaxPool1d(Function):

@staticmethod

def forward(ctx, input, kernel_size, stride=None, padding=0, dilation=1, ceil_mode=False):
...
backend = type2backend[type(input)]

backend.SpatialDilatedMaxPooling_updateOutput(...)

...

return output, indices

@staticmethod

def backward(ctx, grad_output, _indices_grad=None):

...
grad_input = MaxPool1dBackward.apply(...)

return grad_input, None, None, None, None, None, None


nn.Conv2d是在F.conv2d外加的一层封装,从Module派生而来。Module是最接近用户的类,因为如果用户要实现自己的模型,也要从Module派生。Module提供了一种嵌套的模型定义方式,用户可以用这种简单的方式,定义很复杂的模型。关于Module最重要的一点是,它实现了__call__方法,在__call__方法里调用了forward()方法。所以,当执行self.Conv2d(x),它就在调用Conv2d里面的forward(),并返回计算结果。

nn.xx仅封装了一部分常用的计算模块,大部分还是在F.xx里面。如果需要自己用c实现operator(大部分情况不用),最后把接口提供给F.xx就可以。

另外,定义损失也是和nn.Conv2d一样的做法,先声明,再使用。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: