tensorflow 分类损失函数使用小记
2020-03-11 16:08
471 查看
多分类损失函数
label.shape:[batch_size]; pred.shape: [batch_size, num_classes]
使用 tf.keras.losses.sparse_categorical_crossentropy(y_true, y_pred, from_logits=False, axis=-1)
- y_true 真实值, y_pred 预测值
- from_logits,我的理解是,如果预测结果经过了softmax(单次预测结果满足和为1)就使用设为`False`,
如果预测结果未经过softmax就设为`True`.
pred = tf.convert_to_tensor([[0.9, 0.05, 0.05], [0.5, 0.89, 0.6], [2.05, 0.01, 0.94]]) label = tf.convert_to_tensor([0, 1, 2]) loss = tf.keras.losses.sparse_categorical_crossentropy(label, pred) print(loss.numpy()) # 包含 reduction 参数, 用于对一个批次的损失函数求平均值,求和等 # loss = tf.keras.losses.SparseCategoricalCrossentropy()(label, pred) label.shape:[batch_size, num_classes](one_hot);pred.shape:[batch_size, num_classes]
使用 tf.keras.losses.categorical_crossentropy(y_true, y_pred, from_logits=False, axis=-1)
- y_true 真实值, y_pred 预测值
- from_logits 同上
pred = tf.convert_to_tensor([[0.9, 0.05, 0.05], [0.5, 0.89, 0.6], [0.05, 0.01, 0.94]]) label = tf.convert_to_tensor([[1, 0, 0], [0, 1, 0], [0, 0, 1]]) loss = tf.keras.losses.categorical_crossentropy(label, pred) print(loss.numpy())
二分类损失损失函数
label = tf.convert_to_tensor([0, 0, 1, 1], dtype=tf.float32) pred = tf.convert_to_tensor([1, 1, 1, 0], dtype=tf.float32) loss = tf.keras.losses.BinaryCrossentropy()(label, pred) print(loss.numpy())
多分类与二分类
通常 categorical_crossentropy与 softmax激活函数搭配使用; binary_crossentropy 与 sigmoid搭配使用;
以上就是本文的全部内容,希望对大家的学习有所帮助
您可能感兴趣的文章:
相关文章推荐
- tensorflow使用GPU小记
- 04:一文初探Tensorflow高级API使用(初学者篇)
- 关于NoteExpress使用方法小记
- TensorFlow学习笔记(一):快速安装与使用TensorFlow
- NUnit3之NUnitLite使用小记
- 详解Python使用tensorflow入门指南
- windows下如何查看tensorflow是否使用gpu
- sphinx使用小记之配置文件详解
- Tensorflow使用TFRecord构建自己的数据集并读取
- tensorflow | ConfigProto GPU使用设置(包括占用率等)
- 使用JS开发桌面端应用程序NW.js-3-开发问题小记
- Tensorflow 使用slim框架下的分类模型进行分类
- tensorflow入门6 tensorboard的使用
- 使用tensorflow利用神经网络分类识别MNIST手写数字数据集,转自随心1993
- 使用tensorflow理解GBDT的可解释性
- Tensorflow安装及基本使用
- 多卡服务器下隐藏部分 GPU 和 TensorFlow 的显存使用设置
- 深度学习指南:在iOS平台上使用TensorFlow
- 使用TensorFlow一步步进行目标检测(3)