Questions tagged «softmax»

22
如何在Python中实现Softmax函数
从Udacity的深度学习类中,y_i的softmax只是指数除以整个Y向量的指数和: 其中S(y_i),y_i和的softmax函数e是指数,并且j是否。输入向量Y中的列数。 我尝试了以下方法: import numpy as np def softmax(x): """Compute softmax values for each sets of scores in x.""" e_x = np.exp(x - np.max(x)) return e_x / e_x.sum() scores = [3.0, 1.0, 0.2] print(softmax(scores)) 返回: [ 0.8360188 0.11314284 0.05083836] 但是建议的解决方案是: def softmax(x): """Compute softmax values for each sets of scores …


3
sparse_softmax_cross_entropy_with_logits和softmax_cross_entropy_with_logits有什么区别?
我最近遇到了tf.nn.sparse_softmax_cross_entropy_with_logits,但我不知道与tf.nn.softmax_cross_entropy_with_logits有什么区别。 是唯一的区别在于训练矢量y必须是独热编码使用时sparse_softmax_cross_entropy_with_logits? 阅读API,与相比,我找不到其他任何区别softmax_cross_entropy_with_logits。但是,为什么我们需要额外的功能呢? 如果提供了一键编码的训练数据/矢量,softmax_cross_entropy_with_logits结果应该不会与相同sparse_softmax_cross_entropy_with_logits?
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.