Questions tagged «logistic»

通常指利用逻辑函数的统计程序,最常见的是各种形式的逻辑回归

2
R:glm函数,族=“二项式”和“重量”规格
我对体重与family =“ binomial”在glm中的工作方式非常困惑。在我的理解中,具有family =“ binomial”的glm的可能性指定如下: ,其中y是“观察到的成功比例”,n是已知的试验次数。ynf(y)=(nny)pny(1−p)n(1−y)=exp(n[ylogp1−p−(−log(1−p))]+log(nny))f(y)=(nny)pny(1−p)n(1−y)=exp⁡(n[ylog⁡p1−p−(−log⁡(1−p))]+log⁡(nny)) f(y) = {n\choose{ny}} p^{ny} (1-p)^{n(1-y)} = \exp \left(n \left[ y \log \frac{p}{1-p} - \left(-\log (1-p)\right) \right] + \log {n \choose ny}\right) yyynnn 以我的理解,成功概率ppp由一些线性系数\ beta参数ββ\beta化为p=p(β)p=p(β)p=p(\beta)并且glm函数带有family =“ binomial”搜索: argmaxβ∑ilogf(yi).argmaxβ∑ilog⁡f(yi). \textrm{arg}\max_{\beta} \sum_i \log f(y_i). 然后可以将此优化问题简化为: arg 最大β∑一世日志F(y一世)= arg 最大值β∑一世ñ一世[ y一世日志p (β)1 − p (β)- (- 日志(1 − …

1
JAGS中的正则贝叶斯逻辑回归
有许多数学方面的文章描述了贝叶斯套索,但是我要测试可以使用的正确JAGS代码。 有人可以发布实现正则逻辑回归的示例BUGS / JAGS代码吗?任何方案(L1,L2,Elasticnet)都不错,但是Lasso是首选。我也想知道是否有有趣的替代实施策略。

3
在Logistic回归中用WoE(证据权重)替换变量
这是我的一些同事遵循的有关实践或方法的问题。在建立逻辑回归模型时,我已经看到人们用各自的证据权重(WoE)代替了分类变量(或分类的连续变量)。据说这样做是为了在回归变量和因变量之间建立单调关系。现在,据我了解,一旦建立了模型,方程式中的变量就不是数据集中的变量。相反,方程式中的变量现在在隔离因变量时就显得很重要或很重要。 我的问题是:我们现在如何解释模型或模型系数?例如,对于以下等式: 日志( p1 − p) =β0+ β1个X1个log⁡(p1−p)=β0+β1x1 \log\bigg(\frac{p}{1-p}\bigg) = \beta_0 + \beta_1x_1 我们可以说, 是奇数的比率为在可变增加1个单位相对增加X 1。经验值(β1个)exp⁡(β1)\exp(\beta_1) X1个x1x_1 但是,如果将变量替换为其WoE,则解释将更改为:变量的重要性/重量增加1单位时,奇数比的相对增加 我已经在互联网上看到了这种做法,但是没有一个地方找到这个问题的答案。来自该社区本身的此链接与某个类似的查询相关,其中有人写道: WoE与优势比的自然对数显示线性关系,优势比是对数回归中的因变量。因此,当我们使用WoE而不是变量的实际值时,逻辑回归中不会出现模型错误指定的问题。 但是我仍然没有得到解释。请帮助我了解我所缺少的。


3
Logistic回归中的拦截项
假设我们有以下逻辑回归模型: logit(p)=β0+β1x1+β2x2logit(p)=β0+β1x1+β2x2\text{logit}(p) = \beta_0+\beta_{1}x_{1} + \beta_{2}x_{2} 是事件时的赔率和?换句话说,当和处于最低级别(即使它不为0)时,这是事件的几率吗?例如,如果和仅采用值和则我们不能将它们设置为0。β0β0\beta_0x1=0x1=0x_1 = 0x2=0x2=0x_2=0x1x1x_1x2x2x_2x1x1x_1x2x2x_2222333

2
逻辑回归中的过度分散
我正在尝试处理逻辑回归中过度分散的概念。我已经读到过度分散是指观察到的响应变量方差大于二项式分布的预期值。 但是,如果一个二项式变量只能具有两个值(1/0),那么它如何具有均值和方差? 我可以通过x次数的Bernoulli试验来计算成功的均值和方差。但是我无法将只能具有两个值的变量的均值和方差的概念笼罩在脑海中。 任何人都可以提供以下内容的直观概述: 只能有两个值的变量的均值和方差的概念 只能有两个值的变量中的超分散概念

1
对数回归最大化的逻辑回归是否也必然使线性模型的AUC最大化?
给定的数据集与二元结果ÿ∈ { 0 ,1 }ñy∈{0,1}ny\in\{0,1\}^n和一些预测矩阵X∈Rn×pX∈Rn×pX\in\mathbb{R}^{n\times p},标准逻辑回归模型估计系数βMLEβMLE\beta_{MLE}其最大化二项式可能性。当XXX是满秩βMLEβMLE\beta_{MLE}是独一无二的; 当不存在完美分离时,它是有限的。 这是否最大似然模型还最大化ROC AUC(又名ccc t-统计),还是存在一些系数估计βAUC≠βMLEβAUC≠βMLE\beta_{AUC} \neq \beta_{MLE}这将获得较高的ROC AUC?如果确实MLE不一定使ROC AUC最大化,那么看这个问题的另一种方式是“是否存在似然最大化的替代方案,它将始终使对数回归的ROC AUC最大化?” 我假设模型在其他方面是相同的:我们不会在XXX添加或删除预测变量,也不会更改模型规格,并且我假设似然最大化和AUC最大化模型正在使用相同的链接函数。


2
决策阈值是逻辑回归中的超参数吗?
通过使用由模型生成的类成员资格概率的阈值来确定(二进制)逻辑回归的预测类。据我了解,默认情况下通常使用0.5。 但是改变阈值将改变预测的分类。这是否意味着阈值是超参数?如果是这样,为什么(例如)为什么无法使用scikit-learn的GridSearchCV方法轻松地在阈值网格中进行搜索(就像对正则化参数所做的那样C)。

2
为什么经济学研究人员对二元响应变量使用线性回归?
最近,我不得不阅读几篇经济学方面的论文(我不太熟悉这一领域)。我注意到的一件事是,即使响应变量是二进制的,使用OLS拟合的线性回归模型也无处不在。因此,我的问题是: 为什么在经济学领域,线性回归优于逻辑回归?这是简单的普遍做法,还是(在论文,教师等中)积极倡导的程序? 请注意,我并不是在问为什么将线性回归与二元响应一起使用可能不是一个好主意,或者是什么替代方法。相反,我问为什么人们在这种情况下使用线性回归,因为我知道这两个问题的答案。

1
logistic回归和分数响应回归之间有什么区别?
据我所知,逻辑模型和分数响应模型(frm)之间的区别在于,因变量(Y)其中frm为[0,1],而logistic为{0,1}。此外,frm使用拟似然估计器确定其参数。 通常,我们可以使用glm来获得逻辑模型glm(y ~ x1+x2, data = dat, family = binomial(logit))。 对于frm,我们更改family = binomial(logit)为family = quasibinomial(logit)。 我注意到我们也可以family = binomial(logit)用来获取frm的参数,因为它给出了相同的估计值。请参阅以下示例 library(foreign) mydata <- read.dta("k401.dta") glm.bin <- glm(prate ~ mrate + age + sole + totemp, data = mydata ,family = binomial('logit')) summary(glm.bin) 返回, Call: glm(formula = prate ~ mrate + age + …

1
评估逻辑回归模型
我一直在研究逻辑模型,但在评估结果时遇到了一些困难。我的模型是二项式logit。我的解释变量是:具有15个级别的分类变量,二分变量和2个连续变量。我的N大于8000。 我正在尝试为公司的投资决策建模。因变量是投资(是/否),这15个级别变量是经理报告的不同投资障碍。其余变量是销售,信用和已用容量的控件。 下面是我的结果,使用rmsR中的包。 Model Likelihood Discrimination Rank Discrim. Ratio Test Indexes Indexes Obs 8035 LR chi2 399.83 R2 0.067 C 0.632 1 5306 d.f. 17 g 0.544 Dxy 0.264 2 2729 Pr(> chi2) <0.0001 gr 1.723 gamma 0.266 max |deriv| 6e-09 gp 0.119 tau-a 0.118 Brier 0.213 Coef S.E. Wald …

1
计算随机效应逻辑回归的ICC
我正在以以下形式运行逻辑回归模型: lmer(response~1+(1|site), family=binomial, REML = FALSE) 通常,我会根据截距和残差方差来计算ICC,但是模型摘要不包括残差方差。我该如何计算?

1
了解逻辑回归的预测
我来自逻辑回归模型(R中的glm)的预测并不像我期望的那样介于0和1之间。我对逻辑回归的理解是,您的输入和模型参数线性组合,并且使用对数链接函数将响应转换为概率。由于logit函数的范围是0到1,因此我希望我的预测范围是0到1。 但是,当我在R中实现逻辑回归时,这不是我看到的: data(iris) iris.sub <- subset(iris, Species%in%c("versicolor","virginica")) model <- glm(Species ~ Sepal.Length + Sepal.Width, data = iris.sub, family = binomial(link = "logit")) hist(predict(model)) 如果有的话,predict(model)的输出对我来说看起来很正常。谁能向我解释为什么我得到的值不是概率?

2
泊松与逻辑回归
我有一组不同随访时间的患者。到目前为止,我无视时间方面,只需要对二进制结果-疾病/无疾病建模。我通常在这些研究中进行逻辑回归,但是我的另一个同事问泊松回归是否合适。我对泊松不是很感兴趣,对于在这种情况下进行泊松的利弊可与logistic回归进行比较尚不确定。我阅读了Poisson回归以估计二元结果的相对风险,但在这种情况下我仍不确定Poisson回归的优点。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.