具体来说,我想我对此语句感到疑惑:
TensorFlow的未来主要版本默认将允许梯度流入backprop上的标签输入中。
使用时会显示出来tf.nn.softmax_cross_entropy_with_logits
。在同一封信中,它敦促我看看tf.nn.softmax_cross_entropy_with_logits_v2
。我浏览了文档,但只说明了tf.nn.softmax_cross_entropy_with_logits_v2
:
反向传播将同时出现在logit和标签中。要禁止反向传播到标签中,请在将标签张量馈入此函数之前将其张量传递给stop_gradients。
而不是tf.nn.softmax_cross_entropy_with_logits
:
反向传播只会在logit中发生。
对于该主题来说是一个新手(我正在尝试通过一些基本教程进行学习),这些陈述并不十分清楚。我对反向传播有一个较浅的了解,但是前面的陈述实际上是什么意思?反向传播和标签如何连接?与tf.nn.softmax_cross_entropy_with_logits_v2
原始作品相比,这将如何改变我的工作方式?
softmax_..._with_logits_v2
会像softmax_with_logits
?(或者我可以在标签变量上使用tf.stop_gradient。)