Questions tagged «logistic-regression»

22
如何在Python中实现Softmax函数
从Udacity的深度学习类中,y_i的softmax只是指数除以整个Y向量的指数和: 其中S(y_i),y_i和的softmax函数e是指数,并且j是否。输入向量Y中的列数。 我尝试了以下方法: import numpy as np def softmax(x): """Compute softmax values for each sets of scores in x.""" e_x = np.exp(x - np.max(x)) return e_x / e_x.sum() scores = [3.0, 1.0, 0.2] print(softmax(scores)) 返回: [ 0.8360188 0.11314284 0.05083836] 但是建议的解决方案是: def softmax(x): """Compute softmax values for each sets of scores …

2
如何在TensorFlow中选择交叉熵损失?
分类问题(例如逻辑回归或多项式逻辑回归)可优化交叉熵损失。通常,交叉熵层跟随softmax层,从而产生概率分布。 在张量流中,至少有十二种不同的交叉熵损失函数: tf.losses.softmax_cross_entropy tf.losses.sparse_softmax_cross_entropy tf.losses.sigmoid_cross_entropy tf.contrib.losses.softmax_cross_entropy tf.contrib.losses.sigmoid_cross_entropy tf.nn.softmax_cross_entropy_with_logits tf.nn.sigmoid_cross_entropy_with_logits ... 哪一个仅适用于二进制分类,哪些适合于多类问题?什么时候应该sigmoid代替使用softmax?如何在sparse功能与别人不同,为什么仅是它softmax? 相关(更多面向数学的讨论):Keras和TensorFlow中所有这些交叉熵损失之间有什么区别?。


1
使用glm拟合逻辑回归的默认起始值
我想知道如何在中指定默认起始值glm。 这篇文章建议将默认值设置为零。这个人说背后有一个算法,但是相关的链接坏了。 我试图用算法跟踪拟合简单的逻辑回归模型: set.seed(123) x <- rnorm(100) p <- 1/(1 + exp(-x)) y <- rbinom(100, size = 1, prob = p) # to see parameter estimates in each step trace(glm.fit, quote(print(coefold)), at = list(c(22, 4, 8, 4, 19, 3))) 首先,不指定初始值: glm(y ~ x, family = "binomial") Tracing glm.fit(x = structure(c(1, …
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.