1
输出层中的交叉熵或对数似然
我阅读了此页面:http : //neuralnetworksanddeeplearning.com/chap3.html 它说具有交叉熵的S形输出层与具有对数似然的softmax输出层非常相似。 如果我在输出层中使用具有对数似然的S型或具有交叉熵的softmax会发生什么?可以吗 因为我看到交叉熵(eq.57)之间的方程式几乎没有区别: C=−1n∑x(ylna+(1−y)ln(1−a))C=−1n∑x(ylna+(1−y)ln(1−a))C = -\frac{1}{n} \sum\limits_x (y \ln a + (1-y) \ln (1-a)) 和对数似然(eq.80): C=−1n∑x(lnaLy)C=−1n∑x(lnayL)C =-\frac{1}{n} \sum\limits_x(\ln a^L_y)