【TensorFlow】tf.nn.softmax_cross_entropy_with_logits的用法
2018-01-24 15:58
519 查看
tf.nn.softmax_cross_entropy_with_logits(logits, labels, name=None)
[code]第一个参数logits:就是神经网络最后一层的输出,如果有batch的话,它的大小就是[batchsize,num_classes],单样本的话,大小就是num_classes
第二个参数labels:实际的标签,大小同上
相关文章推荐
- 【TensorFlow】tf.nn.softmax_cross_entropy_with_logits的用法
- tensorflow--tf.nn.softmax_cross_entropy_with_logits的用法
- 【TensorFlow】tf.nn.softmax_cross_entropy_with_logits的用法
- TensorFlow 介绍 tf.nn.softmax_cross_entropy_with_logits 的用法
- 【TensorFlow】tf.nn.softmax_cross_entropy_with_logits的用法
- 【TensorFlow】tf.nn.softmax_cross_entropy_with_logits的用法
- TensorFlow学习笔记之tf.nn.softmax()与tf.nn.softmax_cross_entropy_with_logits的用法
- 【TensorFlow】tf.nn.softmax_cross_entropy_with_logits的用法
- 【TensorFlow】tf.nn.softmax_cross_entropy_with_logits的用法
- [TensorFlow] tf.nn.softmax_cross_entropy_with_logits的用法
- 【TensorFlow】tf.nn.softmax_cross_entropy_with_logits的用法
- 【TensorFlow】tf.nn.softmax_cross_entropy_with_logits的用法
- tf.nn.sparse_softmax_cross_entropy_with_logits()函数的用法
- tf.nn.softmax_cross_entropy_with_logits的用法
- Tensorflow函数:tf.nn.softmax_cross_entropy_with_logits 讲解
- TensorFlow学习--tf.nn.sparse_softmax_cross_entropy_with_logits
- tf.nn.softmax_cross_entropy_with_logits的用法
- tf.nn.sparse_softmax_cross_entropy_with_logits的用法
- tensorflow 笔记10:tf.nn.sparse_softmax_cross_entropy_with_logits 函数
- TensorFlow中的tf.nn.softmax_cross_entropy_with_logits 交叉熵 损失函数