您的位置:首页 > 运维架构

tensorflow中softmax_cross_entropy_with_logits函数的实现

2017-07-08 21:54 295 查看
自己实现了softmax_cross_entropy_with_logits函数的功能,算是复习下softmax和cross_entropy



更新:—————————————————

tf中实现了softmax_cross_entropy_with_logits和sparse_softmax_cross_entropy_with_logits,今天看代码看到用sparse的,在此总结下两者的异同。

两者主要在输入参数(labels)的格式不同:

softmax_cross_entropy_with_logits中logits是[batch,num_classes]

labels是[batch,num_classes]

也就是说labels是各个类别的概率

而sparse_softmax_cross_entropy_with_logits在lables上不一样,labels的输入数[batch,1],也就是说唯一指定所属类别
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
相关文章推荐