您的位置:首页 > 其它

TensorFlow的reduce_sum()函数

2017-05-20 09:24 423 查看
日期:2017.5.20

导师让下周二之前用TensorFlow把MNIST跑通,今天看源码碰到这么一行,发现TensorFlow里面的求和函数和其他语言差别挺大,便记录下来。

import tensorflow as tf

...

# 交叉熵评估代价
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y), reduction_indices=[1]))

...


知乎上看到几个回答,挺浅显易懂的,话不多说,先上图



上面是TensorFlow官方文档中的函数解释。

其实在reduce_sum()中,是从维度上去考虑的(感觉这个Matlab中数据的概念比较像)



调用
reduce_sum(arg1, arg2)
时,参数
arg1
即为要求和的数据,
arg2
有两个取值分别为0和1,通常用
reduction_indices=[0]
reduction_indices=[1]
来传递参数。从上图可以看出,当
arg2 = 0
时,是纵向对矩阵求和,原来矩阵有几列就得到几个值;相似地,当
arg2 = 1
时,是横向对矩阵求和;当省略
arg2
参数时,默认对矩阵所有元素进行求和。

看到这里,函数名的前缀为什么是
reduce_
其实也就很容易理解了,reduce就是“对矩阵降维”的含义,下划线后面的部分就是降维的方式,在
reduce_sum()
中就是按照求和的方式对矩阵降维。那么其他
reduce
前缀的函数也举一反三了,比如
reduce_mean()
就是按照某个维度求平均值,等等。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: