tensorflow中损失函数总结
2016-12-24 09:49
302 查看
(1)sequence_loss_by_example(logits, targets, weights)
这个函数用于计算所有examples的加权交叉熵损失,logits参数是一个2D Tensor构成的列表对象,每一个2D Tensor的尺寸为[batch_size x num_decoder_symbols],函数的返回值是一个1D float类型的Tensor,尺寸为batch_size,其中的每一个元素代表当前输入序列example的交叉熵。另外,还有一个与之类似的函数sequence_loss,它对sequence_loss_by_example函数返回的结果进行了一个tf.reduce_sum运算,因此返回的是一个标称型float Tensor。(我所理解的是用于LSTM)
http://www.2cto.com/kf/201612/575911.html
(2)tf.nn.softmax_cross_entropy_with_logits
http://blog.csdn.net/mao_xiao_feng/article/details/53382790
http://www.jianshu.com/p/fb119d0ff6a6
http://stackoverflow.com/questions/35241251/in-tensorflow-what-is-the-difference-between-sampled-softmax-loss-and-softmax-c
这个函数用于计算所有examples的加权交叉熵损失,logits参数是一个2D Tensor构成的列表对象,每一个2D Tensor的尺寸为[batch_size x num_decoder_symbols],函数的返回值是一个1D float类型的Tensor,尺寸为batch_size,其中的每一个元素代表当前输入序列example的交叉熵。另外,还有一个与之类似的函数sequence_loss,它对sequence_loss_by_example函数返回的结果进行了一个tf.reduce_sum运算,因此返回的是一个标称型float Tensor。(我所理解的是用于LSTM)
http://www.2cto.com/kf/201612/575911.html
(2)tf.nn.softmax_cross_entropy_with_logits
http://blog.csdn.net/mao_xiao_feng/article/details/53382790
http://www.jianshu.com/p/fb119d0ff6a6
http://stackoverflow.com/questions/35241251/in-tensorflow-what-is-the-difference-between-sampled-softmax-loss-and-softmax-c
相关文章推荐
- tensorflow中损失函数总结
- TensorFlow 学习总结
- CS231n 卷积神经网络与计算机视觉 6 数据预处理 权重初始化 规则化 损失函数 等常用方法总结
- tensorflow求lost(cost)损失函数的几种典型实现方法
- Tensorflow基础知识总结(1)
- Tensorflow基础知识总结(2)
- 机器学习中的损失函数总结
- 79、tensorflow计算一个五层神经网络的正则化损失系数、防止网络过拟合、正则化的思想就是在损失函数中加入刻画模型复杂程度的指标
- 损失函数很好的一篇总结博客
- tensorflow框架基础之损失函数
- TensorFlow知识总结
- 深度学习框架 TensorFlow 常见问题总结
- tensorflow入门2 几个函数的总结和手写数字识别
- 机器学习总结(一):常见的损失函数
- tensorflow中一些错误总结
- 源码安装TensorFlow问题总结
- tensorflow学习之常用函数总结:tensorflow官方例子中的诸如tf.reduce_mean()这类函数
- ubuntu与centos安装tensorflow经验总结
- 我学tensorflow遇到的问题【总结】
- tensorflow 错误总结