Questions tagged «regression»

用于分析一个(或多个)“因变量”和“因变量”之间的关系的技术。



5
随机森林与回归
我对具有5个独立变量的数据集运行了OLS回归模型。自变量和因变量都是连续的并且线性相关。R平方约为99.3%。但是,当我在R中使用随机森林运行相同的结果时,结果是“%Var解释为:88.42”。为什么随机森林结果不如回归?我的假设是,随机森林至少与OLS回归一样好。

4
回归分析和方差分析之间的区别?
该问题是从Mathematics Stack Exchange 迁移而来的,因为可以通过交叉验证来回答。 迁移 7年前。 我现在正在学习回归分析和方差分析。 在回归分析中,您固定了一个变量,并且想知道该变量与另一个变量的关系。 例如,在方差分析中,您想知道:如果这种特定的动物食物影响动物的体重...那么一个固定的变量以及对其他变量的影响... 是对还是错,请帮助我...
21 regression 

4
多元回归中预测变量的重要性:部分与标准化系数
我想知道线性模型中部分与系数之间的确切关系是什么,我是否应该仅使用一个或两个来说明因素的重要性和影响。R2R2R^2 据我所知,summary我得到了系数的估计值,并且得到anova了每个因子的平方和-一个因子的平方和除以平方和加残差的和的比例为(以下代码位于中)。R2R2R^2R library(car) mod<-lm(education~income+young+urban,data=Anscombe) summary(mod) Call: lm(formula = education ~ income + young + urban, data = Anscombe) Residuals: Min 1Q Median 3Q Max -60.240 -15.738 -1.156 15.883 51.380 Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) -2.868e+02 6.492e+01 -4.418 5.82e-05 *** income 8.065e-02 9.299e-03 8.674 2.56e-11 *** young 8.173e-01 …

3
回归与方差分析的差异(R中的aov与lm)
我一直给人的印象是,回归只是方差分析的一种更一般的形式,其结果是相同的。但是,最近,我对同一数据进行了回归和方差分析,结果差异很大。也就是说,在回归模型中,主效应和相互作用都非常显着,而在方差分析中,一个主效应并不显着。我希望这与交互有关,但是我不清楚这两种对相同问题进行建模的方式有何不同。如果重要的话,一个预测器是分类的,另一个是连续的,如下面的模拟所示。 这是一个示例,说明我的数据看起来如何以及正在执行的分析,但是结果中没有相同的p值或影响显着(上面概述了我的实际结果): group<-c(1,1,1,0,0,0) moderator<-c(1,2,3,4,5,6) score<-c(6,3,8,5,7,4) summary(lm(score~group*moderator)) summary(aov(score~group*moderator))
21 r  regression  anova 


2
如何在R中的函数lm中使用权重?
已锁定。该问题及其答案被锁定,因为该问题是题外话,但具有历史意义。它目前不接受新的答案或互动。 谁能提供一些有关如何weights在R lm函数中使用参数的指针?举例来说,假设您要针对交通数据拟合模型,并且有数百行,每个行代表一个城市(人口不同)。如果您希望模型根据人口规模来调整每个观测值的相对影响,您是否可以简单指定weights=[the column containing the city's population]?那是可以进入的向量weights吗?还是您需要完全使用其他R函数/包/方法? 好奇地听到人们如何解决这个问题-在我在那里看到的任何线性建模教程中都没有看到它。谢谢!
21 r  regression 


2
回归中测试线性的难度
在统计建模中:两种文化 Leo Breiman写道 当前应用的实践是使用拟合优度测试和残差分析来检查数据模型的拟合度。几年前的某个时候,我在七个维度上建立了模拟回归问题,并控制了一定数量的非线性。拟合优度的标准测试直到非线性极端时才拒绝线性。 Breiman没有提供他的模拟的细节。他引用了一篇论文,他说该论文为他的观察提供了理论依据,但该论文尚未发表。 有没有人看到发表的模拟结果或理论论文来支持布里曼的主张?

3
确定系数(
我想完全理解描述变量之间变化量的的概念。每个网络的解释都有些机械和晦涩。我想“理解”这个概念,而不仅仅是机械地使用数字。[R2r2r^2 例如:学习时数与考试成绩 = 0.8[Rrr = .64[R2r2r^2 那么这是什么意思? 考试成绩变异性的64%可以用小时来解释吗? 我们怎么知道只是平方呢?

5
如何使我的神经网络更好地预测正弦波?
在这里,看看: 您可以确切地看到训练数据的结束位置。训练数据从变为。1−1-1个-111个1 我使用Keras和具有tanh激活功能的1-100-100-2密集网络。我根据p和q这两个值计算出的结果为p / q。这样,我仅使用小于1的值就可以实现任何大小的数字。 请注意,我仍然是该领域的初学者,所以请放轻松。

2
岭回归的假设是什么,以及如何对其进行检验?
考虑用于多元回归的标准模型,其中,因此误差的正态性,同和不相关性都成立。Y=Xβ+εY=Xβ+εY=X\beta+\varepsilonε∼N(0,σ2In)ε∼N(0,σ2In)\varepsilon \sim \mathcal N(0, \sigma^2I_n) 假设我们通过向的对角线的所有元素添加相同的少量量来执行岭回归:XXX βridge=[X′X+kI]−1X′Yβridge=[X′X+kI]−1X′Y\beta_\mathrm{ridge}=[X'X+kI]^{-1}X'Y 尽管\ beta_ \ mathrm {ridge}是\ beta的有偏估计量,但仍有一些值的岭系数比OLS的均方根误差小。实际上,k是通过交叉验证获得的。kkkβridgeβridge\beta_\mathrm{ridge}ββ\betakkk 这是我的问题:岭模型背后的假设是什么?更具体地说, 普通最小二乘法(OLS)的所有假设在岭回归中是否有效? 如果对问题1回答为“是”,我们如何使用\ beta的有偏估计量来检验同方差和缺乏自相关性ββ\beta? 是否有任何工作可用于在岭回归下测试其他OLS假设(均方差性和缺乏自相关性)?

2
在简单线性回归中,残差方差的公式从何而来?
根据我正在使用的文本,第残差的方差公式为:ithithi^{th} σ2(1−1n−(xi−x¯¯¯)2Sxx)σ2(1−1n−(xi−x¯)2Sxx)\sigma^2\left ( 1-\frac{1}{n}-\frac{(x_{i}-\overline{x})^2}{S_{xx}} \right ) 我发现这难以置信,因为第残差是第观测值与第拟合值之间的差。如果要计算差异的方差,那么至少我会期望结果表达式中有些“加”。任何理解推导的帮助将不胜感激。ithithi^{th}ithithi^{th}ithithi^{th}

2
如何描述或可视化多元线性回归模型
我正在尝试使用几个输入参数(例如3)将多元线性回归模型拟合到我的数据中。 F(x )F(x )= A x1个+ B x2+ CX3+ d要么= (A B C )Ť(x1个 X2 X3)+d(i)(ii)(一世)F(X)=一种X1个+乙X2+CX3+d要么(ii)F(X)=(一种 乙 C)Ť(X1个 X2 X3)+d\begin{align} F(x) &= Ax_1 + Bx_2 + Cx_3 + d \tag{i} \\ &\text{or} \\ F(x) &= (A\ B\ C)^T (x_1\ x_2\ x_3) + d \tag{ii} \end{align} 如何解释和可视化此模型?我可以想到以下选项: 提及描述的回归方程(系数,常数)以及标准偏差,然后提及残差图以显示该模型的准确性。 (我)(一世)(i) 独立变量和因变量的成对图,如下所示: 一旦系数已知,可以将用于获得方程式的数据点压缩为它们的实际值。也就是说,训练数据具有而不是,,,形式的新值,其中每个自变量乘以其各自的系数。然后,可以将此简化版本直观地显示为简单回归,如下所示:x …

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.