Questions tagged «regression»

用于分析一个(或多个)“因变量”和“因变量”之间的关系的技术。

2
解释R中的drop1输出
在R中,drop1命令输出整洁的东西。 这两个命令应该为您提供一些输出: example(step)#-> swiss drop1(lm1, test="F") 我的看起来像这样: > drop1(lm1, test="F") Single term deletions Model: Fertility ~ Agriculture + Examination + Education + Catholic + Infant.Mortality Df Sum of Sq RSS AIC F value Pr(F) <none> 2105.0 190.69 Agriculture 1 307.72 2412.8 195.10 5.9934 0.018727 * Examination 1 53.03 2158.1 189.86 …

3
如何检测回归模型何时过拟合?
当您正在做某事时,意识到自己在做什么,就会对何时过度拟合模型产生一种感觉。一方面,您可以在模型的“调整后的R平方”中跟踪趋势或劣化。您还可以在主要变量的回归系数的p值中跟踪类似的恶化。 但是,当您阅读其他人的研究并且对他们自己的内部模型开发过程一无所知时,如何清楚地确定模型是否过拟合。

3
可以使CART模型健壮吗?
我办公室的一位同事今天对我说:“树模型不好,因为它们被极端的观察所捕获”。 此处的搜索导致该线程基本上支持该声明。 这就引出了我的问题-在什么情况下CART模型可以保持稳健,如何显示?


1
Logistic回归中有无截距模型之间的区别
我想了解逻辑回归中有或没有拦截模型之间的区别 它们之间有什么区别,除了截距系数是相对于基线组的对数(奇数比),无截距系数是相对的(logs)奇数?从我看到的情况来看,两种情况下的系数都相同,但是重要性并不总是相同,并且不明白为什么会这样。此外,在哪些情况下使用无截距的模型是否正确? 这是我的模型:glm(NeverReturn ~ factor(Network) * TotalPrice , family = binomial)而且我不确定是否要保留拦截,因为在“实词”上,总价格无论如何都不能低于50,但是概率是1而不是0,所以我很困惑。


3
在GLM中,饱和模型的对数似然性是否始终为零?
作为广义线性模型输出的一部分,零偏差和残差偏差用于评估模型。我经常看到这些量的饱和模型的对数似然来表示的公式,例如:/stats//a/113022/22199,Logistic回归:如何获取饱和模型 据我所知,饱和模型是完全符合观察到的响应的模型。因此,在我见过的大多数地方,饱和模型的对数似然始终为零。 但是,给出偏差公式的方式表明,有时该量不为零。(好像总是始终为零,为什么还要包括它?) 在什么情况下可以为非零?如果它永远都不为零,为什么要在偏差公式中包括它?



3
使用R计算多元回归中每个预测变量所解释的方差
我进行了一次多元回归分析,该模型作为一个整体是有意义的,并解释了约13%的方差。但是,我需要找到每个重要预测变量所解释的方差量。如何使用R做到这一点? 以下是一些示例数据和代码: D = data.frame( dv = c( 0.75, 1.00, 1.00, 0.75, 0.50, 0.75, 1.00, 1.00, 0.75, 0.50 ), iv1 = c( 0.75, 1.00, 1.00, 0.75, 0.75, 1.00, 0.50, 0.50, 0.75, 0.25 ), iv2 = c( 0.882, 0.867, 0.900, 0.333, 0.875, 0.500, 0.882, 0.875, 0.778, 0.867 ), iv3 = c( …
14 r  regression  variance 

1
回归比率,又称克朗马尔问题
最近,随机浏览的问题引发了我的一位教授几年前对临时评论的记忆,并警告说在回归模型中使用比率。因此,我开始阅读此书,最终导致Kronmal 1993。 我想确保我正确解释了他关于如何建模这些建议的建议。 对于在从属和独立方面均具有相同分母比率的模型: ž− 1ÿ= Z− 11个ñβ0+ Z− 1XβX+ βž+ Z− 1ϵž-1个ÿ=ž-1个1个ñβ0+ž-1个XβX+βž+ž-1个ϵ Z^{-1}Y = Z^{-1}1_n\beta_0 + Z^{-1}X\beta_X + \beta_Z + Z^{-1}\epsilon 除其他比率外,还依赖于(反)分母变量的回归相关比率 分母变量(反)的权重 对于具有因变量作为比率的模型: ÿ= β0+ βXX+ Z1个ñα0+ ZXαX+ Z− 1ϵÿ=β0+βXX+ž1个ñα0+žXαX+ž-1个ϵ Y = \beta_0 + \beta_XX + Z1_n\alpha_0 + ZX\alpha_X + Z^{-1}\epsilon 用原始变量,分母和分母乘以原始变量的回归分子[分类变量是什么?] 权重(反分母) 对于仅具有独立变量比率的模型: ÿ= β0+ XβX+ Z− …


2
分类和回归树背后的数学
有人可以帮助解释CART中分类背后的一些数学吗?我想了解两个主要阶段是如何发生的。例如,我在数据集上训练了CART分类器,并使用测试数据集来标记其预测性能,但是: 如何选择树的初始根? 每个分支为何以及如何形成? 我的数据集包含15列23类的40万条记录,从混淆矩阵中获得了100%的准确性,我对数据集使用了10倍交叉验证。如果有人能帮助解释CART分类的阶段,我将非常感激。

1
广义线性模型的假设
我制作了一个具有单个响应变量(连续/正态分布)和4个解释变量(其中3个是因子,第四个是整数)的广义线性模型。我使用了具有身份链接功能的高斯误差分布。我目前正在检查模型是否满足广义线性模型的假设,即: Y的独立性 正确的链接功能 解释变量的正确计量范围 没有影响力的观察 我的问题是:如何检查模型是否满足这些假设?最好的起点似乎是针对每个解释变量绘制响应变量。但是,有3个解释变量是分类的(具有1-4个级别),那么在图中我应该寻找什么? 另外,我是否需要检查解释变量之间的多重共线性和相互作用?如果是,我该如何使用分类解释变量?

2
如何从神经网络获取实值连续输出?
到目前为止,在我所见过的大多数神经网络示例中,都使用该网络进行分类,并使用S型函数对节点进行变换。但是,我想使用神经网络来输出连续的实际值(实际上,输出通常在-5到+5范围内)。 我的问题是: 1. Should I still scale the input features using feature scaling? What range? 2. What transformation function should I use in place of the sigmoid? 我希望最初实现它来描述这些层类型的 PyBrain 。 所以我在想应该有3个都是线性层的图层开始(输入,隐藏和输出层)?那是合理的方法吗?还是可以在-5到5的范围内“拉伸” S型函数?

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.