Questions tagged «cross-entropy»


3
sparse_softmax_cross_entropy_with_logits和softmax_cross_entropy_with_logits有什么区别?
我最近遇到了tf.nn.sparse_softmax_cross_entropy_with_logits,但我不知道与tf.nn.softmax_cross_entropy_with_logits有什么区别。 是唯一的区别在于训练矢量y必须是独热编码使用时sparse_softmax_cross_entropy_with_logits? 阅读API,与相比,我找不到其他任何区别softmax_cross_entropy_with_logits。但是,为什么我们需要额外的功能呢? 如果提供了一键编码的训练数据/矢量,softmax_cross_entropy_with_logits结果应该不会与相同sparse_softmax_cross_entropy_with_logits?

3
什么是交叉熵?
我知道关于交叉熵是很多解释,但是我仍然很困惑。 仅仅是描述损失函数的一种方法吗?我们可以使用梯度下降算法通过损失函数找到最小值吗?

2
如何在TensorFlow中选择交叉熵损失?
分类问题(例如逻辑回归或多项式逻辑回归)可优化交叉熵损失。通常,交叉熵层跟随softmax层,从而产生概率分布。 在张量流中,至少有十二种不同的交叉熵损失函数: tf.losses.softmax_cross_entropy tf.losses.sparse_softmax_cross_entropy tf.losses.sigmoid_cross_entropy tf.contrib.losses.softmax_cross_entropy tf.contrib.losses.sigmoid_cross_entropy tf.nn.softmax_cross_entropy_with_logits tf.nn.sigmoid_cross_entropy_with_logits ... 哪一个仅适用于二进制分类,哪些适合于多类问题?什么时候应该sigmoid代替使用softmax?如何在sparse功能与别人不同,为什么仅是它softmax? 相关(更多面向数学的讨论):Keras和TensorFlow中所有这些交叉熵损失之间有什么区别?。
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.