Questions tagged «mixture»

混合分布是写为其他分布的凸组合的分布。将“ compound-distributions”标签用于分布的“串联”(分布的参数本身就是随机变量)。

1
两个高斯加权混合的方差是多少?
假设我有两个正态分布A和B,均值和以及方差和。我想使用权重和对这两个分布进行加权混合,其中和。我知道这种混合的平均值是。μ 乙σ 甲σ 乙 p q 0 ≤ p ≤ 1个q = 1 - p μ 阿乙 = (p × μ 甲)+ (q × μ 乙)μAμA\mu_AμBμB\mu_BσAσA\sigma_AσBσB\sigma_Bpppqqq0≤p≤10≤p≤10\le p \le 1q=1−pq=1−pq = 1-pμAB=(p×μA)+(q×μB)μAB=(p×μA)+(q×μB)\mu_{AB} = (p\times\mu_A) + (q\times\mu_B) 差异是多少? 一个具体的例子是,如果我知道男女身高分布的参数。如果我的房间里有60%是男性,那么我可以得出整个房间的预期平均身高,但是方差又如何呢?

3
手动计算逻辑回归95%置信区间与在R中使用confint()函数之间为什么会有区别?
亲爱的大家-我注意到我无法解释的怪事,可以吗?总之:在logistic回归模型中计算置信区间的手动方法和R函数confint()得出不同的结果。 我一直在研究Hosmer&Lemeshow的Applied Logistic回归(第二版)。在第3章中,有一个计算比值比和95%置信区间的示例。使用R,我可以轻松地重现模型: Call: glm(formula = dataset$CHD ~ as.factor(dataset$dich.age), family = "binomial") Deviance Residuals: Min 1Q Median 3Q Max -1.734 -0.847 -0.847 0.709 1.549 Coefficients: Estimate Std. Error z value Pr(>|z|) (Intercept) -0.8408 0.2551 -3.296 0.00098 *** as.factor(dataset$dich.age)1 2.0935 0.5285 3.961 7.46e-05 *** --- Signif. codes: 0 ‘***’ 0.001 ‘**’ …
34 r  regression  logistic  confidence-interval  profile-likelihood  correlation  mcmc  error  mixture  measurement  data-augmentation  r  logistic  goodness-of-fit  r  time-series  exponential  descriptive-statistics  average  expected-value  data-visualization  anova  teaching  hypothesis-testing  multivariate-analysis  r  r  mixed-model  clustering  categorical-data  unsupervised-learning  r  logistic  anova  binomial  estimation  variance  expected-value  r  r  anova  mixed-model  multiple-comparisons  repeated-measures  project-management  r  poisson-distribution  control-chart  project-management  regression  residuals  r  distributions  data-visualization  r  unbiased-estimator  kurtosis  expected-value  regression  spss  meta-analysis  r  censoring  regression  classification  data-mining  mixture 

10
为什么两个随机变量之和是卷积?
长期以来,我不明白为什么两个随机变量的“和”是它们的卷积,而和的混合密度函数之和是f(x)f(x)f(x)g(x)g(x)g(x)pf(x)+(1−p)g(x)pf(x)+(1−p)g(x)p\,f(x)+(1-p)g(x); 算术和而不是它们的卷积。确切的短语“两个随机变量的总和”在Google中出现了146,000次,并且如下所示是椭圆形的。如果认为RV产生单个值,则可以将该单个值添加到另一个RV单个值,这与卷积无关,至少不是直接相关,所有都是两个数字的和。但是,统计数据中的RV结果是值的集合,因此更精确的短语类似于“来自两个RV的相关个体值对的协调总和的集合是它们的离散卷积”……并且可以通过以下方式近似:对应于那些RV的密度函数的卷积。更简单的语言: 2个RVnnn样本实际上是两个n维向量,它们相加作为向量和。 请详细说明两个随机变量的和如何是卷积和。

3
学生t作为高斯的混合
使用自由度k>0k>0k > 0,位置参数和比例参数的学生t分布密度 l lllsss Γ(k+12)Γ(k2kπs2−−−−√){1+k−1(x−ls)}−(k+1)/2,Γ(k+12)Γ(k2kπs2){1+k−1(x−ls)}−(k+1)/2,\frac{\Gamma \left(\frac{k+1}{2}\right)}{\Gamma\left(\frac{k}{2}\sqrt{k \pi s^2}\right)} \left\{ 1 + k^{-1}\left( \frac{x-l}{s}\right)\right\}^{-(k+1)/2}, 如何显示,学生ttt -配送可以通过让写为高斯分布的混合X∼N(μ,σ2)X∼N(μ,σ2)X\sim N(\mu,\sigma^2),τ=1/σ2∼Γ(α,β)τ=1/σ2∼Γ(α,β)\tau = 1/\sigma^2\sim\Gamma(\alpha,\beta)和集成的联合密度f(x,τ|μ)f(x,τ|μ)f(x,\tau|\mu)得到边际密度f(x|μ)f(x|μ)f(x|\mu)?得到的t的参数是什么ttt分布,作为?的函数μ,α,βμ,α,β\mu,\alpha,\beta 通过将联合条件密度与Gamma分布相结合,我迷失了微积分。

5
期望最大化算法的动机
该问题是从Mathematics Stack Exchange 迁移而来的,因为可以通过交叉验证来回答。 迁移 6年前。 在EM算法的方法,我们用Jensen不等式在到达logp(x|θ)≥∫logp(z,x|θ)p(z|x,θ(k))dz−∫logp(z|x,θ)p(z|x,θ(k))dzlog⁡p(x|θ)≥∫log⁡p(z,x|θ)p(z|x,θ(k))dz−∫log⁡p(z|x,θ)p(z|x,θ(k))dz\log p(x|\theta) \geq \int \log p(z,x|\theta) p(z|x,\theta^{(k)}) dz - \int \log p(z|x,\theta) p(z|x,\theta^{(k)})dz θ(k+1)θ(k+1)\theta^{(k+1)}θ(k+1)=argmaxθ∫logp(z,x|θ)p(z|x,θ(k))dzθ(k+1)=arg⁡maxθ∫log⁡p(z,x|θ)p(z|x,θ(k))dz\theta^{(k+1)}=\arg \max_{\theta}\int \log p(z,x|\theta) p(z|x,\theta^{(k)}) dz 我读过EM的所有内容都只能解决这个问题,但是我一直对不了解EM算法为何自然产生的解释感到不安。我了解到可能性通常是用来处理加法而不是乘法,但是定义中的出现对我来说没有动力。为什么要考虑\ log而不考虑其他单调函数?由于种种原因,我怀疑期望最大化背后的“含义”或“动机”在信息论和足够的统计方面有某种解释。如果有这样的解释,那将不仅仅是抽象算法而已。loglog\logloglog\logθ(k+1)θ(k+1)\theta^{(k+1)}loglog\log

4
从正态分布的混合中生成随机变量
如何从中的混合分布,尤其是正态分布的混合中采样R?例如,如果我想从以下位置取样: 0.3×N(0,1)+0.5×N(10,1)+0.2×N(3,.1)0.3×N(0,1)+0.5×N(10,1)+0.2×N(3,.1) 0.3\!\times\mathcal{N}(0,1)\; + \;0.5\!\times\mathcal{N}(10,1)\; + \;0.2\!\times\mathcal{N}(3,.1) 我该怎么办?

2
“所有这些数据点都来自同一分布。”如何进行测试?
我觉得以前已经在这里讨论过这个主题,但是我找不到任何具体的东西。再说一次,我也不确定要搜索什么。 我有一维数据集。我假设集合中的所有点均来自同一分布。 我如何检验这个假设?对“该数据集中的观测值来自两个不同的分布”的一般选择进行检验是否合理? 理想情况下,我想确定哪些点来自“其他”分布。由于我的数据是有序的,因此在以某种方式测试切割数据是否“有效”之后,我是否可以确定切割点? 编辑:根据Glen_b的回答,我会对严格正,单峰分布感兴趣。我也对假设分布然后测试不同参数的特殊情况感兴趣。

1
在原假设下,可交换样本背后的直觉是什么?
排列检验(也称为随机检验,重新随机检验或精确检验)非常有用,并且在t-test未满足例如要求的正态分布的假设以及通过按等级对值进行转换时派上用场非参数测试之类的测试Mann-Whitney-U-test会导致丢失更多信息。但是,在使用这种检验时,一个假设且唯一一个假设应该是原假设下样本的可交换性假设。还值得注意的是,当有两个以上的示例(如在coinR包中实现的示例)时,也可以应用这种方法。 您能用简单的英语用一些比喻语言或概念直觉来说明这一假设吗?这对于在像我这样的非统计学家中阐明这个被忽视的问题非常有用。 注意: 提及在相同假设下应用置换测试不成立或无效的情况将非常有帮助。 更新: 假设我随机从我所在地区的当地诊所收集了50个受试者。他们被随机分配为接受药物或安慰剂的比例为1:1。分别Par1在V1(基准),V2(3个月后)和V3(1年后)时测量了参数1 。根据特征A,所有50个主题都可以分为2组;正值= 20,负值=30。它们也可以基于特征B细分为另外2组;B阳性= 15,B阴性=35。 现在,我具有Par1所有访问中所有受试者的值。在可交换性的假设下,如果可以,我是否可以在Par1使用置换测试的水平之间进行比较: -将接受药物治疗的受试者与接受V2安慰剂治疗的受试者进行比较? -将具有特征A的对象与具有V2的特征B的对象进行比较? -比较在V2具有特征A的对象与在V3具有特征A的对象? -在哪种情况下,这种比较是无效的,并且违反了可交换性的假设?
15 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 


6
在活动中花费的时间作为自变量
我想将花费在做某事上的时间(例如,数周的母乳喂养)作为线性模型中的自变量。但是,某些观察结果根本不参与该行为。将它们编码为0并不是真正正确的方法,因为0在质量上与大于0的任何值都存在差异(即,不进行母乳喂养的女性可能与做过母乳的女性(甚至是长期不做母乳的女性)有很大差异)。我能提供的最好的方法是对假人进行分类,以对花费的时间进行分类,但这浪费了宝贵的信息。零膨胀的Poisson之类的东西似乎也有可能,但是我无法确切地弄清楚这种情况下的情况。有没有人有什么建议?

1
插入符glmnet与cv.glmnet
在glmnet内部caret使用搜索最佳lambda和cv.glmnet执行相同任务的比较中似乎有很多困惑。 提出了许多问题,例如: 分类模型train.glmnet与cv.glmnet? 在插入符号中使用glmnet的正确方法是什么? 使用`caret`交叉验证`glmnet` 但是没有给出答案,这可能是由于问题的可重复性。在第一个问题之后,我给出了一个非常相似的示例,但确实存在相同的问题:为什么估计的lambda如此不同? library(caret) library(glmnet) set.seed(849) training <- twoClassSim(50, linearVars = 2) set.seed(849) testing <- twoClassSim(500, linearVars = 2) trainX <- training[, -ncol(training)] testX <- testing[, -ncol(testing)] trainY <- training$Class # Using glmnet to directly perform CV set.seed(849) cvob1=cv.glmnet(x=as.matrix(trainX),y=trainY,family="binomial",alpha=1, type.measure="auc", nfolds = 3,lambda = seq(0.001,0.1,by = 0.001),standardize=FALSE) …


2
为什么混乱的问题对于大样本量来说很棘手?
假设我们有一组点。每个点y i是使用分布 p (y i | x )= 1生成的y ={ y1个,ÿ2,… ,yñ}y={y1,y2,…,yN}\mathbf{y} = \{y_1, y_2, \ldots, y_N \}ÿ一世yiy_i 为了获得后为X我们写 p(X|Ý)αp(Ý|X)p(X)=p(X) ñ Π我=1个p(ÿ我|X)。 根据Minka的关于期望传播的论文,我们需要2N计算以获得后验p (ÿ一世| x)= 12ñ(x ,1 )+ 12ñ(0 ,10 )。p(yi|x)=12N(x,1)+12N(0,10). p(y_i| x) = \frac12 \mathcal{N}(x, 1) + \frac12 \mathcal{N}(0, 10). Xxxp (x | y)∝ p (y | x )p …

1
吉布斯输出的边际可能性
我正在从头开始复制第4.2.1节的结果 吉布斯输出的边际可能性 悉达多(Siddhartha Chib) 美国统计协会杂志,第一卷。90,第432号。(1995年12月),第1313-1321页。 它是具有已知组件数的法线模型的混合。 k≥1k≥1k\geq 1f(x∣w,μ,σ2)=∏i=1n∑j=1kN(xi∣μj,σ2j).(∗)f(x∣w,μ,σ2)=∏i=1n∑j=1kN(xi∣μj,σj2).(∗) f(x\mid w,\mu,\sigma^2) =\prod_{i=1}^n\sum_{j=1}^k \mathrm{N}(x_i\mid\mu_j,\sigma_j^2) \, . \qquad (*) 该模型的Gibbs采样器是使用Tanner和Wong的数据增强技术实现的。引入了一组分配变量并假设值为,我们指定和f(x_i \ mid z ,\ mu,\ sigma ^ 2)= \ mathrm {N}(x_i \ mid \ mu_ {z_i},\ sigma ^ 2_ {z_i})。因此,在z_i上的积分给出了原始可能性(*)。z=(z1,…,zn)z=(z1,…,zn)z=(z_1,\dots,z_n)1,…,k1,…,k1,\dots,kPr(zi=j∣w)=wjPr(zi=j∣w)=wj\Pr(z_i=j\mid w)=w_jf(xi∣z,μ,σ2)=N(xi∣μzi,σ2zi)f(xi∣z,μ,σ2)=N(xi∣μzi,σzi2)f(x_i\mid z,\mu,\sigma^2)=\mathrm{N}(x_i\mid\mu_{z_i},\sigma^2_{z_i})ziziz_i(∗)(∗)(*) 该数据集是由来自日冕的828282星系的速度形成的。 set.seed(1701) x <- c( 9.172, 9.350, 9.483, 9.558, 9.775, 10.227, …

2
有限的高斯混合与高斯之间的距离是多少?
假设我混合了有限数量的具有已知权重,均值和标准差的高斯。手段不平等。当然,由于力矩是组分力矩的加权平均值,因此可以计算出混合物的平均值和标准偏差。混合不是正态分布,但是离正态有多远? 上图显示了高斯混合物的概率密度,其中高斯混合物的均值由标准差(各组分的标准差)隔开,而一个高斯混合物的均值和方差相同。222 111 动机:我不同意一些懒惰的人关于他们尚未测量的一些实际分布,他们认为这些分布接近正常值,因为那样很好。我也很懒 我也不想测量分布。我想能够说出他们的假设是不一致的,因为他们说的是,高斯与不同均值的有限混合是不正确的高斯。我不仅要说尾巴的渐近形状是错误的,因为这些只是近似值,仅应在均值的几个标准偏差内合理地准确。我想说的是,如果这些分量被正态分布很好地近似,那么混合就不是,并且我想能够对此进行量化。 L1L1L^12221/41/41/4

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.