Questions tagged «normal-distribution»

正态分布或高斯分布的密度函数为对称的钟形曲线。它是统计中最重要的分布之一。使用[normality]标签询问有关正常性测试的信息。

2
为什么我们应该使用t错误而不是普通错误?
在Andrew Gelman撰写的此博客文章中,包含以下内容: 50年前的贝叶斯模型看起来简直是无望的(当然,对于简单的问题除外),我希望今天的贝叶斯模型在50年后看起来简直是绝望的。(仅举一个简单的例子:我们可能应该在任何地方都常规地使用t而不是正常错误,但是出于熟悉,习惯和数学上的方便,我们还没有这样做。这可能是很好的理由-在科学上在政治上,保守主义有很多有利的理由,但我认为,最终,当我们适应更复杂的模型时,我们会朝着这个方向发展。) 为什么我们应该“常规地在几乎所有地方都使用t而不是普通错误”?




5
如何在机器学习中处理分层/嵌套数据
我将用一个例子来解释我的问题。假设您要根据以下属性预测个人的收入:{年龄,性别,国家/地区,城市}。你有一个像这样的训练数据集 train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", "M","F","M","F", "F","F","F","M")), Income=c(31,42,71,65, 50,51,101,38, 47,50,55,23)) train CountryID RegionID CityID Age Gender Income 1 1 1 1 23 M 31 2 1 1 1 48 F 42 3 1 1 2 62 M 71 4 …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 

3
泊松分布与正态分布有何不同?
我生成了一个具有泊松分布的向量,如下所示: x = rpois(1000,10) 如果我使用制作直方图hist(x),则分布看起来像是熟悉的钟形正态分布。然而,使用柯尔莫哥洛夫-斯米尔诺夫测试ks.test(x, 'pnorm',10,3)说,分布显著不同的正态分布,由于非常小的p值。 所以我的问题是:当直方图看起来与正态分布非常相似时,泊松分布与正态分布有何不同?

3
R:尽管数据集中没有NaN,随机森林仍在“外部函数调用”错误中抛出NaN / Inf [关闭]
我正在使用插入符号在数据集上运行交叉验证的随机森林。Y变量是一个因素。我的数据集中没有NaN,Inf或NA。但是,当运行随机森林时,我得到 Error in randomForest.default(m, y, ...) : NA/NaN/Inf in foreign function call (arg 1) In addition: There were 28 warnings (use warnings() to see them) Warning messages: 1: In data.matrix(x) : NAs introduced by coercion 2: In data.matrix(x) : NAs introduced by coercion 3: In data.matrix(x) : NAs introduced by …

2
统计中的白噪声
在阅读有关不同统计模型的信息时,我经常会看到“白噪声”一词出现。但是,我必须承认,我不确定这意味着什么。通常缩写为。这是否意味着它是正态分布的还是可以遵循任何分布?w ^ñ(0 ,σ2)w ^ñ(0,σ2)WN(0,σ^2)

3
高斯比分布:包含
我正在使用两个独立的正态分布和,均值和以及方差和。XXXÿÿYμXμX\mu_xμÿμÿ\mu_yσ2XσX2\sigma^2_xσ2ÿσÿ2\sigma^2_y 我对它们的比率的分布感兴趣。和的均值都不为零,因此不作为柯西分布。ž= X/ Yž=X/ÿZ=X/YXXXÿÿYžžZ 我需要找到的CDF ,然后对,,和取CDF的导数。žžZμXμX\mu_xμÿμÿ\mu_yσ2XσX2\sigma^2_xσ2ÿσÿ2\sigma^2_y 有人知道已经在哪里计算过的论文吗?还是我自己怎么做? 我在1969年的一篇论文中找到了CDF的公式,但是采用这些导数无疑将是一个巨大的痛苦。也许有人已经做到了,或者知道如何轻松做到这一点?我主要需要了解这些衍生物的迹象。 如果主要为正,则本文还包含解析上更简单的近似值。我不能有那个限制。但是,即使在参数范围之外,近似值也可能具有与真实导数相同的符号?ÿÿY

5
常见分布的真实示例
我是一名研究生,对统计感兴趣。我总体上喜欢这种材料,但是有时我很难考虑将其应用于现实生活中。具体来说,我的问题是关于常用的统计分布(正态-β-伽玛等)。我猜在某些情况下,我得到了使分布变得非常漂亮的特定属性-例如指数的无记忆属性。但是对于其他许多情况,我对教科书中常见发行版的重要性和应用领域都没有直觉。 可能有很多很好的消息源可以解决我的问题,如果您能分享这些问题,我将非常高兴。如果我可以将其与现实生活中的示例联系起来,那么我会更加热衷于该材料。

2
为什么均方误差是经验分布和高斯模型之间的交叉熵?
在5.5版《深度学习》中(由伊恩·古德费洛(Ian Goodfellow),约书亚·本吉欧(Yoshua Bengio)和亚伦·库维尔(Aaron Courville)指出) 由负对数可能性组成的任何损失都是训练集定义的经验分布与模型定义的概率分布之间的交叉熵。例如,均方误差是经验分布和高斯模型之间的交叉熵。 我不明白为什么它们是等同的,作者对此也没有扩展。

1
自由度可以是非整数吗?
当我使用GAM时,它给了我剩余的DF为(代码的最后一行)。这意味着什么?超越GAM示例,通常,自由度可以是非整数吗?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q Max -4.1470 -1.6217 -0.8971 1.2445 6.0516 (Dispersion Parameter for gaussian family taken to be 6.6717) Null Deviance: 1126.047 on 31 degrees of freedom Residual Deviance: 177.4662 on 26.6 degrees of …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 



3
如何计算两个法线均值之比的置信区间
我想为两个均值之比得出置信区间的限制。 假设和 是独立的,平均比。我试图解决: 但在许多情况下(无根)无法求解该方程式。难道我做错了什么?有没有更好的方法?谢谢X 1〜Ñ (θ 1,σ 2)X 2〜Ñ (θ 2,σ 2)Γ = θ 1 / θ 2镨(- Ž (α / 2 ))≤ X 1 - Γ X 2 / σ √100 (1 - α )%100(1−α)%100(1-\alpha)\%X1个〜ñ(θ1个,σ2)X1∼N(θ1,σ2)X_1 \sim N(\theta_1, \sigma^2)X2〜ñ(θ2,σ2)X2∼N(θ2,σ2)X_2 \sim N(\theta_2, \sigma^2)Γ = θ1个/ θ2Γ=θ1/θ2\Gamma = \theta_1/\theta_2PR (- ž(α / …

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.