您的位置:首页 > 运维架构

[tensorflow]sparse_softmax_cross_entropy_with_logits 与 softmax_cross_entropy_with_logits的区别

2018-03-06 14:18 519 查看
原函数:

tf.nn.sparse_softmax_cross'_entropy_with_logits(logits=net, labels=y)

tf.nn.softmax_cross_entropy_with_logits(logits=net, labels=y2)


sparse_softmax_cross_entropy_with_logits中 lables接受直接的数字标签

如[1], [2], [3], [4] (类型只能为int32,int64)

而softmax_cross_entropy_with_logits中 labels接受one-hot标签

如[1,0,0,0], [0,1,0,0],[0,0,1,0], [0,0,0,1] (类型为int32, int64)

相当于sparse_softmax_cross_entropy_with_logits 对标签多做一个one-hot动作
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: 
相关文章推荐