您的位置:首页 > 其它

TensorFlow 学习(八)—— 梯度计算(gradient computation)

2017-03-16 11:28 267 查看
maxpooling 的 max 函数关于某变量的偏导也是分段的,关于它就是 1,不关于它就是 0;

BP 是反向传播求关于参数的偏导,SGD 则是梯度更新,是优化算法;

1. 一个实例



relu = tf.nn.relu(tf.matmul(x, W) + b)
C = [...]

[db, dW, dx] = tf.gradient(C, [b, w, x])
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  梯度计算
相关文章推荐