您的位置:首页 > 其它

tensorflow笔记:关于新手学习过程中的函数总结

2018-04-24 11:51 274 查看

1、tf.Variable():

tf.Variable(initial_value, trainable=True, collections=None, validate_shape=True, name=None)

initial_value所有可以转换为Tensor的类型变量的初始值
trainablebool如果为True,会把它加入到GraphKeys.TRAINABLE_VARIABLES,才能对它使用Optimizer
collectionslist指定该图变量的类型、默认为[GraphKeys.GLOBAL_VARIABLES]
validate_shapebool如果为False,则不进行类型和维度检查
namestring变量的名称,如果没有指定则系统会自动分配一个唯一的值

创建图中的一个结点。

附:一般在Variable()中作为参数的函数:

tf.truncated_normal(shape, mean, stddev) :shape表示生成张量的维度,mean是均值,stddev是标准差。这个函数产生正太分布,均值和标准差自己设定。这是一个截断的产生正太分布的函数,就是说产生正太分布的值如果与均值的差值大于两倍的标准差,那就重新生成。和一般的正太分布的产生随机数据比起来,这个函数产生的随机数与均值的差距不会超过两倍的标准差,但是一般的别的函数是可能的。

tf.random_normal(shape, mean, stddev):从正态分布中输出随机值。

tf.constant(value,dtype=None,shape=None,name=’Const’) 
创建一个常量tensor,按照给出value来赋值,可以用shape来指定其形状。value可以是一个数,也可以是一个list。 
如果是一个数,那么这个常亮中所有值的按该数来赋值。 
如果是list,那么len(value)一定要小于等于shape展开后的长度。赋值时,先将value中的值逐个存入。不够的部分,则全部存入value的最后一个值。

2、激活函数

激活函数的作用:能够给神经网络加入一些非线性因素,使得神经网络可以更好的解决较为复杂的问题。激活函数不改变维度。

tf.nn.relu()

tf.nn.sigmoid()

tf.nn.tanh()

tf.nn.elu()

tf.nn.bias_add()

tf.nn.crelu()

tf.nn.relu6()

tf.nn.softplus()

tf.nn.softsign()

tf.nn.dropout()

tf.nn.relu_layer(x, weights, biases,name=None)

3、指数衰减学习率

learning_rate = tf.train.exponential_decay(LEARNING_RATE_BASE,global_step,LEARNING_RATE_STEP,LEARNING_RATE_DECAY,staircase=True)

学习率计算数学公式:Learning_rate=LEARNING_RATE_BASE*LEARNING_RATE_DECAY* ( 阅读更多
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: