我最近遇到了tf.nn.sparse_softmax_cross_entropy_with_logits,但我不知道与tf.nn.softmax_cross_entropy_with_logits有什么区别。
是唯一的区别在于训练矢量y
必须是独热编码使用时sparse_softmax_cross_entropy_with_logits
?
阅读API,与相比,我找不到其他任何区别softmax_cross_entropy_with_logits
。但是,为什么我们需要额外的功能呢?
如果提供了一键编码的训练数据/矢量,softmax_cross_entropy_with_logits
结果应该不会与相同sparse_softmax_cross_entropy_with_logits
?