Questions tagged «self-study»

从课本,自学中使用的教科书,课程或测试的例行练习。该社区的政策是为此类问题“提供有用的提示”,而不是完整的答案。

2
删节和截断有什么区别?
在《生命周期数据的统计模型和方法》一书中,它写为: 审查:由于某种随机原因导致观察不完整时。 截断:当观察结果的不完全是由于研究设计所固有的系统选择过程而导致的。 截断定义中的“研究设计固有的系统选择过程”是什么意思? 删节和截断有什么区别?

6
Logistic回归和感知器之间有什么区别?
我经历安德鲁Ng的讲课笔记机器学习。 这些注释向我们介绍了逻辑回归,然后介绍了感知器。注释在描述Perceptron时说,我们只是更改了用于逻辑回归的阈值函数的定义。之后,我们可以使用Perceptron模型进行分类。 所以我的问题是-如果需要指定此参数,并且我们将Perceptron视为一种分类技术,那么逻辑回归到底是什么?是仅用于获取数据点属于其中一个类别的概率吗?

7
统计的分支是什么?
在数学中,存在诸如代数,分析,拓扑等分支。在机器学习中,有监督,无监督和强化学习。在每个分支中,都有更精细的分支,这些分支进一步划分了方法。 我在绘制统计数据方面遇到麻烦。统计学的主要分支(和分支)是什么?不可能有一个完美的分区,但是有什么比大空白图更好的了。 视觉示例:

4
麦克法登的伪R2解释
我有一个二进制逻辑回归模型,其麦克法登(McFadden)的伪R平方为0.192,有一个称为支付的因变量(1 =付款,0 =不付款)。这个伪R平方的解释是什么? 它是嵌套模型的相对比较(例如,一个6变量模型的McFadden伪R平方为0.192,而一个5变量模型(从上述6变量模型中删除一个变量后),该5变量模型具有伪R -平方为0.131。我们是否要在模型中保留第6个变量?)还是它是绝对数量(例如,给定模型的McFadden伪R平方为0.192,比任何现有的模型都具有McFadden伪模型更好) R平方为0.180(甚至对于非嵌套模型也是如此)?这些只是查看McFadden的伪R平方的可能方法;但是,我认为这两种观点相距遥远,因此我在这里提出此问题的原因。 我已经对该主题进行了大量研究,但仍无法找到我想要的答案,因为它能够解释McFadden的0.192伪R平方。任何见解和/或参考将不胜感激!在回答这个问题之前,我知道这不是描述逻辑回归模型的最佳方法,但是无论如何,我都希望对这一统计信息有更深入的了解!

4
自我学习与受教教育?
对于程序员,有一个类似目的的问题。这个问题有一些很好的答案,但是总的主题似乎是,如果不自学,您将无所适从。 显然,编程和统计之间存在一些主要区别-使用编程,您实际上只是在学习一些基本逻辑,然后重复应用它。新语言都使用相同的基本概念。自我学习可以让您学习更高级的概念,并变得更有效率。这种东西很难教。 统计数据完全不同。应用所涉及的逻辑很容易-因为通常有人设计了该方法。实际上,该方法通常是大学所教授的大部分方法。但是统计信息确实比这更深入,并且涉及一些真正的高级概念。甚至很难找到这些概念,如果您所学的只是应用统计学,更不用说理解它们了(尽管我想知道这可能是由于该领域的行话造成的)。另外,我发现编程中的自学涉及阅读许多简短的文章/博客以向您介绍新概念,而有关统计的可访问文章几乎总是针对初学者,因此对于像这样的新手而言毫无用处。我。 因此,问题是:自学是否比大学教育更适合统计学?哪种自我学习方法可行?任何以前为人们服务的例子都将受到欢迎。 (这可能应该是社区Wiki,但是我没有看到任何复选框)

1
从lmer模型计算效果的可重复性
我刚刚碰到了这篇论文,该论文描述了如何通过混合效应建模来计算测量的可重复性(又称可靠性,又称类内相关性)。R代码为: #fit the model fit = lmer(dv~(1|unit),data=my_data) #obtain the variance estimates vc = VarCorr(fit) residual_var = attr(vc,'sc')^2 intercept_var = attr(vc$id,'stddev')[1]^2 #compute the unadjusted repeatability R = intercept_var/(intercept_var+residual_var) #compute n0, the repeatability adjustment n = as.data.frame(table(my_data$unit)) k = nrow(n) N = sum(n$Freq) n0 = (N-(sum(n$Freq^2)/N))/(k-1) #compute the adjusted repeatability Rn = …
28 mixed-model  reliability  intraclass-correlation  repeatability  spss  factor-analysis  survey  modeling  cross-validation  error  curve-fitting  mediation  correlation  clustering  sampling  machine-learning  probability  classification  metric  r  project-management  optimization  svm  python  dataset  quality-control  checking  clustering  distributions  anova  factor-analysis  exponential  poisson-distribution  generalized-linear-model  deviance  machine-learning  k-nearest-neighbour  r  hypothesis-testing  t-test  r  variance  levenes-test  bayesian  software  bayesian-network  regression  repeated-measures  least-squares  change-scores  variance  chi-squared  variance  nonlinear-regression  regression-coefficients  multiple-comparisons  p-value  r  statistical-significance  excel  sampling  sample  r  distributions  interpretation  goodness-of-fit  normality-assumption  probability  self-study  distributions  references  theory  time-series  clustering  econometrics  binomial  hypothesis-testing  variance  t-test  paired-comparisons  statistical-significance  ab-test  r  references  hypothesis-testing  t-test  normality-assumption  wilcoxon-mann-whitney  central-limit-theorem  t-test  data-visualization  interactive-visualization  goodness-of-fit 

5
为什么随机游走的方差会增加?
定义为Y t = Y t − 1 + e t的随机游走,其中e t是白噪声。表示当前位置是前一个位置的总和加上一个不可预测的项。Yt=Yt−1+etÿŤ=ÿŤ-1个+ËŤY_{t} = Y_{t-1} + e_tetete_t 可以证明的是,平均函数μt=0μt=0\mu_t = 0 ,因为E(Yt)=E(e1+e2+...+et)=E(e1)+E(e2)+...+E(et)=0+0+...+0E(Yt)=E(e1+e2+...+et)=E(e1)+E(e2)+...+E(et)=0+0+...+0E(Y_{t}) = E(e_1+ e_2+ ... +e_t) = E(e_1) + E(e_2) +... +E(e_t) = 0 + 0 + ... + 0 但是,为什么方差随时间线性增加? 因为新位置与上一个位置非常相关,这是否与“纯”随机无关? 编辑: 现在,通过可视化大量随机游走,我有了更好的理解,在这里我们可以轻松地观察到总体方差确实会随着时间的推移而增加, 平均值在零附近。 毕竟这可能是微不足道的,因为在时间序列的早期(比较时间= 10,有100),随机步行者还没有时间去探索。

8
寻找一本完整的概率统计书
我从来没有机会从数学系访问统计课程。我正在寻找一本完整的自给自足的概率论和统计书。完整的意思是它包含所有证明,而不仅仅是陈述结果。自给自足是指不需要阅读另一本书就能理解这本书。当然,它可能需要大学水平(数学系学生)的微积分和线性代数。 我看过多本书,但我不喜欢其中的任何一本书。 DeGroot和Schervish(2011)概率与统计(第4版)皮尔森 这还不够完整。它只是说明了很多东西而没有推导。除此之外,我喜欢它。 瓦瑟曼(Wasserman)(2004年),《所有统计资料:统计推断简明课程》。 一点都不喜欢。几乎没有解释。 David Williams的“ Weighing the Odds”比DeGroot更为正式,似乎是完整且自给自足的。但是,我发现样式很奇怪。他还发明了似乎只有他才能使用的新术语。DeGroot中解释的所有内容也在那里得到了更好的解释。 如果您知道一本很棒的德语书,那也和我是德语一样好。

1
自由度可以是非整数吗?
当我使用GAM时,它给了我剩余的DF为(代码的最后一行)。这意味着什么?超越GAM示例,通常,自由度可以是非整数吗?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q Max -4.1470 -1.6217 -0.8971 1.2445 6.0516 (Dispersion Parameter for gaussian family taken to be 6.6717) Null Deviance: 1126.047 on 31 degrees of freedom Residual Deviance: 177.4662 on 26.6 degrees of …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

3
应该选择哪家医院?一个具有较高的成功率,但另一个具有较高的总体成功率
我对统计老师说的以下问题有疑问。我的问题甚至不在这种情况下发生的辛普森悖论上。我的问题仅仅是我的教授坚持认为A)和D)是正确的答案,而不是A)和F)。他说: “由于E型手术的成功率很低,我们可以得出结论,这很困难,而且不仅仅罕见。因此,与Hope相比,Mercy可能拥有更好的设备/医生。” 我不了解他如何从统计学上推断出Mercy做了“更困难的手术”。Mercy显然在E型手术中具有更高的成功率,但是为什么这意味着他们进行“更困难的手术”。我想我被这个问题的措词所困扰,而教授并没有让步。有人可以向我解释为什么我错了,或者如何向教授解释这一点吗? 您所在的镇有两家名为Mercy和Hope的医院。您必须选择其中一项进行操作。您决定以他们的外科团队的成功为基础。幸运的是,根据新的医疗计划,医院会提供有关手术成功与否的数据,这些数据分为五大类。假设您获得了两家医院的以下数据: Mercy Hospital Type A B C D E All Operations 359 1836 299 2086 149 4729 Successful 292 1449 179 434 13 2366 Hope Hospital Type A B C D E All Operations 88 514 222 86 45 955 Successful 70 391 113 12 2 588 …

7
两个骰子卷-顺序相同的数字
我目前正在Coursera上学习统计推理课程。在一项作业中,出现以下问题。 | Suppose you rolled the fair die twice. What is the probability of rolling the same number two times in a row? 1: 2/6 2: 1/36 3: 0 4: 1/6 Selection: 2 | You're close...I can feel it! Try it again. | Since we don't care what the outcome …

1
统计,线性代数和机器学习中的经典符号是什么?这些符号之间有什么联系?
当我们阅读一本书时,理解符号在理解内容方面起着非常重要的作用。不幸的是,对于模型和优化问题的公式化,不同的社区有不同的符号约定。有人可以在这里总结一些配方符号并提供可能的原因吗? 我在这里举一个例子:在线性代数文学中,经典著作是Strang 对线性代数的介绍。本书中最常用的符号是 Ax=bAx=b A x=b 其中是系数矩阵,是要求解的变量,是等式右侧的向量。该理由书选择这个符号是线性代数的主要目标是解决线性系统和弄清楚什么是矢量。给定这样的公式,OLS优化问题是x b xAAAxxxbbbxxx minimizex ∥Ax−b∥2minimizex ‖Ax−b‖2 \underset{x}{\text{minimize}}~~ \|A x-b\|^2 在统计学或机器学习素养(摘自《统计学学习的要素》一书中)中,人们使用不同的表示法来表示同一件事: Xβ=yXβ=yX \beta= y 其中XXX是数据矩阵,ββ\beta是要学习的学习系数或权重,yyy是响应。人们之所以使用它,是因为统计或机器学习社区中的人们是数据驱动的,因此数据和响应对他们来说是最有趣的事情,他们使用XXX和yyy来表示。 现在我们可以看到所有可能的混淆:第一个方程式中的AAA与第二个方程式中的X相同XXX。在第二个方程中,XXX不需要解决。同样针对以下术语:AAA是线性代数中的系数矩阵,但它是统计中的数据。ββ\beta也称为“系数”。 另外,我提到Xβ=yXβ=yX \beta=y并不是人们在机器学习中广泛使用的确切名称,人们使用半矢量化版本来汇总所有数据点。如 min∑iL(yi,f(xi))min∑iL(yi,f(xi)) \min \sum_i \text{L}(y_i,f(x_i)) 我认为这样做的原因是,当谈论随机梯度下降和其他不同的损失函数时,它是很好的。同样,对于线性回归以外的其他问题,简洁的矩阵符号也消失了。 逻辑回归的矩阵符号 任何人都可以对不同文献的符号进行更多的总结吗?我希望这个问题的明智答案可以为阅读不同文学作品的人们提供良好的参考。 请不要受到我的示例 Ax=bAx=bA x=b和Xβ=yXβ=yX \beta=y。还有很多。如 为什么会有两种不同的逻辑损失表述/符号?

3
泊松回归的残差与拟合值的解释图
我试图用R中的GLM(泊松回归)拟合数据。当我绘制残差与拟合值时,该图创建了多个(几乎是线性的,带有轻微的凹曲线)“线”。这是什么意思? library(faraway) modl <- glm(doctorco ~ sex + age + agesq + income + levyplus + freepoor + freerepa + illness + actdays + hscore + chcond1 + chcond2, family=poisson, data=dvisits) plot(modl)

2
如何知道数据是否遵循R中的泊松分布?
我是一名本科生,并且为我的概率课程设计了一个项目。基本上,我有一个数据集,介绍了影响了我国多年的飓风。 在我的概率书((概率与统计数为R)中,有一个(不完整的)示例,说明如何检查数据是否遵循泊松分布,他们开始尝试证明遵循了这三个条件: 120(标准)第122-123页示例) 1-非重叠间隔中的结果数是独立的。换句话说,时间间隔(0,t]中的结果数与时间间隔(t,t + h],h> 0的结果数无关 2-在足够短的间隔内出现两个或更多结果的可能性实际上为零。换句话说,如果h足够小,则与在相同时间间隔中获得一个或零个结果的概率相比,在时间间隔(t,t + h]中获得两个或多个结果的概率可以忽略不计。 3-在足够短的间隔或较小区域中恰好一个结果的概率与间隔或区域的长度成正比。换句话说,在长度为h的区间中一个结果的概率为lambda * h。 但是标准3被“作为练习”。 A-有人可以告诉我是否有更“简便”的方法来查看我的数据集是否遵循泊松分布吗? B-有人可以用某种示例向我解释准则1和3(如果使用R的话,太棒了)? 谢谢! 注意:很抱歉,冗长的帖子。另外,我必须转换数据,以便有一个像这样的表: number of hurricanes | 0 | 1 | 2 etc. ----------------------------------------- total years that have | | | that number of hurricanes | | |

4
独立随机变量的功能
是否声称独立随机变量的功能本身是独立的,正确的? 我已经看到该结果通常在某些证明中被隐式使用,例如,在样本均值和正态分布的样本方差之间的独立性证明中,但我无法为其找到理由。似乎有些作者认为是给定的,但我不确定情况总是如此。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.