Questions tagged «references»

寻求有关特定主题的外部参考文献(书籍,​​论文等)的问题。此外,请始终使用更具体的标签。

4
数学家机器学习入门
从某种意义上讲,这是我的math.stackexchange的交叉点,并且我觉得此网站可能会吸引广泛的受众。 我正在寻找关于机器学习的数学入门。特别是,可以找到的许多文献相对不准确,花费了很多页面而没有任何内容。 但是,从这些文献开始,我从安德鲁·伍(Andrew Ng),毕晓普(Bishop)关于模式识别的书以及斯莫拉(Smola)书中发现了Coursera课程。不幸的是,斯莫拉的书只是处于草稿状态。在Smola的书中甚至可以找到证明,这吸引了我。Bishop的书已经相当不错了,但是缺少一些严格的知识。 简而言之:我正在寻找一本类似Smola的书,即尽可能精确和严格,并使用数学背景(尽管简短的介绍当然可以)。 有什么建议吗?


5
在Casella&Berger之后要学什么?
我是一名纯数学研究生,几乎没有应用数学背景。从去年秋天开始,我开始在Casella&Berger的书上上课,并且在书中完成了数百(230+)页的运动问题。现在我在第10章。 但是,由于我没有统计学专业或计划成为统计学家,所以我认为我将无法定期投入时间继续学习数据分析。到目前为止,我的经验告诉我,作为一名统计学家,需要承担很多繁琐的计算工作,涉及各种分布(Weibull,Cauchy,,F ...)。我发现虽然基本思想很简单,但由于技术原因,实现(例如假设检验中的LRT)仍然很困难。ŤŤtFFF 我的理解正确吗?有没有一种方法可以学习概率和统计信息,不仅可以涵盖更高级的材料,还可以在我需要现实生活中的数据分析时提供帮助吗?我是否需要像以前那样每周花费个小时?≥≥\ge 尽管我认为学习数学没有走上任何皇家之路,但我常常不禁要问-大多数时候,我们不知道真实数据的分布是什么,所以我们专注于各种分布族的目的是什么? ?如果样本量较小,并且中心极限定理不适用,那么在分布未知的情况下,除了样本平均值和方差之外,我们还应如何正确分析数据? 我的学期将在一个月内结束,在我开始专注于博士学位研究后,我不希望自己的知识消失。所以我决定问。我正在学习R,并且我有一定的编程背景,但是我的水平与代码猴子差不多。

3
在直方图中使用QQ绘图的好处
在此评论中,尼克·考克斯写道: 归类是一种古老的方法。尽管直方图可能有用,但现代统计软件可以轻松且明智地使分布适合原始数据。分档只是丢弃了细节,这对于确定合理的分布至关重要。 此评论的内容建议使用QQ绘图作为评估拟合度的替代方法。该声明听起来很合理,但我想知道一个支持该声明的可靠参考。除了简单的“嗯,这听起来很明显”之外,是否有论文对这一事实进行了更彻底的研究?对结果或类似内容进行任何实际的系统比较吗? 我还想了解QQ曲线相对于直方图的优势可以扩展到模型拟合以外的其他应用程序。关于这个问题的答案同意“ QQ图[…]只是告诉您“某事是错误的””。我正在考虑使用它们作为一种工具来识别与零模型相比观察到的数据中的结构,并想知道是否存在任何建立的过程可以使用QQ图(或其基础数据)不仅检测而且描述非随机观测数据中的结构。因此,包括该方向的参考文献将特别有用。


3
内曼·皮尔森引理
我 从Mood,Graybill和Boes 撰写的《统计理论概论》一书中 阅读了Neyman–Pearson引理。但是我还不了解引理。 谁能用简单的话向我解释这个引理?它说明了什么? Neyman-Pearson Lemma:令是的随机样本,其中是两个已知值和,并且固定。X1,…,XnX1,…,XnX_1,\ldots,X_nf(x;θ)f(x;θ)f(x;\theta)θθ\thetaθ0θ0\theta_0θ1θ1\theta_10&lt;α&lt;10&lt;α&lt;10<\alpha<1 让 k∗k∗k^*是正的常数和C∗C∗C^*是的一个子集XX\mathscr X满足:Pθ0[(X1,…,Xn)∈C∗]=α(1)(1)Pθ0[(X1,…,Xn)∈C∗]=α \tag 1 P_{\theta_0}[(X_1,\ldots,X_n)\in C^*] = \alpha λ=L(θ0;x1,…,xn)L(θ1;x1,…,xn)=L0L1≤k∗if (x1,…,xn)∈C∗(2)(2)λ=L(θ0;x1,…,xn)L(θ1;x1,…,xn)=L0L1≤k∗if (x1,…,xn)∈C∗\tag 2 \lambda=\frac{L(\theta_0;x_1,\ldots,x_n)}{L(\theta_1;x_1,\ldots,x_n)} = \frac{L_0}{L_1} \le k^*\quad \text{if } (x_1,\ldots,x_n)\in C^* andλ≥k∗ if (x1,…,xn)∈C¯∗andλ≥k∗ if (x1,…,xn)∈C¯∗\text{and}\quad \lambda\ge\quad k^* \text{ if } (x_1,\ldots,x_n)\in \bar C^* 然后将试验γ∗γ∗\gamma^*对应于临界区域C∗C∗C^*是一个最有力的尺寸的测试αα\alpha的H0:θ=θ0H0:θ=θ0\mathscr H_0:\theta=\theta_0与H1:θ=θ1H1:θ=θ1\mathscr H_1:\theta=\theta_1 用言语表达,我了解到这两个标准 (1)P [拒绝零假设| 原假设为真] =显着性水平 …

5
通过R学习(不仅仅是运行)统计/数学的来源
我对通过R(可以通过其他语言学习统计和数学概念)的来源示例(R代码,R包,书籍,书籍章节,文章,链接等)感兴趣。 面临的挑战是,材料的学习依赖于编程,而不仅取决于如何运行执行算法的代码。 因此,(例如)像R的线性模型这样的书(这是一本好书)不是我想要的。这是因为这本书主要显示了如何在R中实现线性模型,但是并没有围绕使用R来讲授线性模型。 (很棒的)TeachingDemos软件包的帮助文件是我正在寻找的一个很好的例子。它是一个R软件包,其中包括通过各种R小程序和模拟来学习统计概念的功能。随附的帮助文件很好。当然,这两种方法都不足够,并且需要一本外部教科书才能掌握许多确切的细节来学习它们(帮助文件也是如此)。 所有线索将不胜感激。

5
测量理论导论
我有兴趣了解有关非参数贝叶斯(及相关)技术的更多信息。我的背景是计算机科学,尽管我从未参加过度量理论或概率论的课程,但是我对概率和统计学的正规培训数量有限。谁能推荐这些概念的可读介绍来帮助我入门?

4
如何将新向量投影到PCA空间上?
执行主成分分析(PCA)之后,我想将一个新向量投影到PCA空间上(即在PCA坐标系中找到其坐标)。 我已经使用R计算了R语言的PCA prcomp。现在,我应该可以将向量乘以PCA旋转矩阵。该矩阵中的主要成分应该按行还是按列排列?
21 r  pca  r  variance  heteroscedasticity  misspecification  distributions  time-series  data-visualization  modeling  histogram  kolmogorov-smirnov  negative-binomial  likelihood-ratio  econometrics  panel-data  categorical-data  scales  survey  distributions  pdf  histogram  correlation  algorithms  r  gpu  parallel-computing  approximation  mean  median  references  sample-size  normality-assumption  central-limit-theorem  rule-of-thumb  confidence-interval  estimation  mixed-model  psychometrics  random-effects-model  hypothesis-testing  sample-size  dataset  large-data  regression  standard-deviation  variance  approximation  hypothesis-testing  variance  central-limit-theorem  kernel-trick  kernel-smoothing  error  sampling  hypothesis-testing  normality-assumption  philosophical  confidence-interval  modeling  model-selection  experiment-design  hypothesis-testing  statistical-significance  power  asymptotics  information-retrieval  anova  multiple-comparisons  ancova  classification  clustering  factor-analysis  psychometrics  r  sampling  expectation-maximization  markov-process  r  data-visualization  correlation  regression  statistical-significance  degrees-of-freedom  experiment-design  r  regression  curve-fitting  change-point  loess  machine-learning  classification  self-study  monte-carlo  markov-process  references  mathematical-statistics  data-visualization  python  cart  boosting  regression  classification  robust  cart  survey  binomial  psychometrics  likert  psychology  asymptotics  multinomial 

4
关于矩阵微积分的教科书?
请参阅Math SE上的此问题。 短篇小说:我读了《统计学习的要素》,在尝试验证某些结果时感到沮丧,例如,给定 然后 我我正在寻找一本与您的传统微积分书类似的矩阵微积分书(例如,定理证明,示例,计算练习等)。我已经看过这个问题RSS (β)= (Ý - X β)Ť(ÿ - X β),的RSS(β)=(ÿ-Xβ)Ť(ÿ-Xβ),\text{RSS}(\beta) = \left(\mathbf{y}-\mathbf{X}\beta\right)^{T}\left(\mathbf{y}-\mathbf{X}\beta\right)\text{,}∂的RSS∂β= - 2 XŤ(ÿ - X β)∂2的RSS∂β ∂βŤ= 2 XŤX。∂的RSS∂β=-2XŤ(ÿ-Xβ)∂2的RSS∂β ∂βŤ=2XŤX。\begin{align}&\dfrac{\partial\text{RSS}}{\partial \beta} = -2\mathbf{X}^{T}\left(\mathbf{y}-\mathbf{X}\beta\right) \\ &\dfrac{\partial^2\text{RSS}}{\partial \beta\text{ }\partial \beta^{T}} = 2\mathbf{X}^{T}\mathbf{X}\text{.} \end{align}觉得马格努斯(Magnus)和诺德克(Neudecker)的文字过于注重理论,而我的温特尔(Gentle)的文字则很少关注理论,而在计算方面则过于关注。 有没有快乐的媒介可供具有本科分析背景的人访问?

3
陪审员基本统计
我被传唤出任陪审员。我意识到统计数字与某些陪审团审判的相关性。例如,“基准利率”的概念及其在概率计算中的应用有时(也许总是)是相关的。 在我所处的情况下,一个人可以学习哪些统计主题,哪些材料适合我的背景? 我拥有“硬科学”学位,因此统计知识有限,但是我的技能很生锈。我全职工作,没有很多时间来做陪审团。因此,将答案集中在基本概念,简单的问题解决技能及其在相关问题上的应用(当然,以及这些概念和方法的局限性)将是适当的。

2
交叉验证与经验贝叶斯估计超参数
给定一个层次模型,我想要一个两阶段的过程来拟合模型。首先,固定少数几个超参数θ,然后对其余参数ϕ进行贝叶斯推断。为了修复超参数,我正在考虑两种选择。p(x|ϕ,θ)p(x|ϕ,θ)p(x|\phi,\theta)θθ\thetaϕϕ\phi 使用经验贝叶斯(EB)并最大化边际可能性(整合包含高维参数的模型的其余部分)。p (所有数据| θ)p(所有数据|θ)p(\mbox{all data}|\theta) 使用交叉验证(CV)技术(例如倍交叉验证)来选择使似然性p最大化的θ (测试数据| 训练数据,θ )。ķķkθθ\thetap (测试数据| 训练数据,θ )p(测试数据|训练数据,θ)p(\mbox{test data}|\mbox{training data}, \theta) EB的优势在于,我可以一次使用所有数据,而对于CV,我需要(潜在地)多次计算模型似然并搜索。在许多情况下,EB和CV的性能是可比的(*),通常EB的估算速度更快。θθ\theta 问题:是否存在将两者联系起来的理论基础(例如,EB和CV在大数据限制内是相同的)?还是将EB与某些通用性标准(例如经验风险)联系起来?有人可以指出良好的参考资料吗? (*)作为说明,这是墨菲的机器学习(Murphy's Machine Learning)第7.6.4节中的图,他说,对于岭回归,两个过程都产生非常相似的结果: 墨菲还说,经验贝叶斯(他称其为“证据程序”)相对于CV的主要实践优势是,当由许多超参数组成时(例如,对每个特征进行单独惩罚,如自动相关性确定或ARD)。根本不可能使用CV。θθ\theta

8
关于“实验室笔记本”软件的想法?
因此,这很奇怪,尽管实际上我认为这对任何站点都非常合适,所以我认为我会在我的数据处理专家中尝试一下。 我从生物学学到流行病学和生物统计学,但仍然肯定有该领域的一些习惯。其中之一是保留实验室笔记本。它对于记录思想,决策,关于分析的沉思等等很有用。所有这些都集中在一个地方,所有的事情都发生了,所以我以后可以回顾分析并了解我的所作所为。 但是,最好将其转移到21世纪。特别是因为即使实验室笔记本系统对于一个人来说足够体面并记录决策,还是能够附加来自EDA的图表,来自讨论特定数据集的数据管理员的电子邮件等,这还是很好的。 我猜想这将涉及从许多不同的地方联合起来组装我自己的系统,但是目前有人在使用系统并有任何建议吗?

6
了解ANOVA和ANCOVA的好资源?
我正在进行论文实验,并且正在寻找一本有趣的书/网站以正确了解ANOVA和ANCOVA的工作方式。我有很好的数学背景,所以我不一定需要粗俗的解释。 我还想知道如何确定何时使用ANOVA代替ANCOVA。

4
边缘情况下精度和召回率的正确值是多少?
精度定义为: p = true positives / (true positives + false positives) 对不对,作为true positives和false positives做法0,精度接近1? 召回相同的问题: r = true positives / (true positives + false negatives) 我目前正在实施统计测试,需要计算这些值,有时分母为0,我想知道在这种情况下应返回哪个值。 PS:请原谅,不恰当的标签,我想用recall,precision和limit,但我不能创造新的标签呢。
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.