Questions tagged «probability»

概率提供了特定事件可能发生的定量描述。


1
绘制具有多个预测变量的Logit模型的概率曲线
我有以下概率函数: Prob=11+e−zProb=11+e−z\text{Prob} = \frac{1}{1 + e^{-z}} 哪里 z=B0+B1X1+⋯+BnXn.z=B0+B1X1+⋯+BnXn.z = B_0 + B_1X_1 + \dots + B_nX_n. 我的模特看起来像 Pr(Y=1)=11+exp(−[−3.92+0.014×(bid)])Pr(Y=1)=11+exp⁡(−[−3.92+0.014×(bid)])\Pr(Y=1) = \frac{1}{1 + \exp\left(-[-3.92 + 0.014\times(\text{bid})]\right)} 这通过如下所示的概率曲线可视化。 我正在考虑在原始回归方程式中添加几个变量。假设我在模型中添加了性别(类别:F和M)和年龄(类别:<25和> 26),最后得到: Pr(Y=1)=11+exp(−[−3.92+0.014×(bid)+0.25×(gender)+0.15×(age)])Pr(Y=1)=11+exp⁡(−[−3.92+0.014×(bid)+0.25×(gender)+0.15×(age)])\Pr(Y=1) = \frac{1}{1 + \exp\left(-[-3.92 + 0.014\times(\text{bid}) + 0.25\times(\text{gender}) + 0.15\times(\text{age})]\right)} 在RI中可以生成类似的概率曲线,当考虑所有三个预测变量时,它将告诉我Y = 1的概率。我迷路的地方是我想找到这些变化的每种可能排列的概率。 因此,当出价= 1,性别= M,年龄> = 26时,Y = 1的概率是多少?同样,当出价= 2,性别= F,年龄> …


2
集合的度量指数的无偏估计量?
假设我们有一个设置(可测量并适当地表现良好)S⊆B⊂RnS⊆B⊂RnS\subseteq B\subset\mathbb R^n,其中BBB紧凑。此外,假设我们可以从Lebesgue测度λ (⋅ )的BBB的均匀分布中抽取样本,并且知道测度λ (B )。例如,也许乙是一个盒子[ - Ç ,Ç ] Ñ含有小号。λ(⋅)λ(⋅)\lambda(\cdot)λ(B)λ(B)\lambda(B)BBB[−c,c]n[−c,c]n[-c,c]^nSSS 对于固定α∈Rα∈R\alpha\in\mathbb R,是否有来估计一个简单的无偏方式e−αλ(S)e−αλ(S)e^{-\alpha \lambda(S)}通过均匀采样以点BBB并且如果它们是内部或外部的检查SSS? 由于东西完全不是那么回事的例子,假设我们样本kkk点p1,…,pk∼Uniform(B)p1,…,pk∼Uniform(B)p_1,\ldots,p_k\sim\textrm{Uniform}(B)。然后,我们可以使用蒙特卡洛估计λ(S)≈λ^:=#{pi∈S}kλ(B).λ(S)≈λ^:=#{pi∈S}kλ(B).\lambda(S)\approx \hat\lambda:= \frac{\#\{p_i\in S\}}{k}\lambda(B). 但是,尽管 λ是一个无偏估计λ(小号),我不认为它的情况下ë-α λ是一个无偏估计ë-αλ(小号)。有什么方法可以修改此算法?λ^λ^\hat\lambdaλ(S)λ(S)\lambda(S)e−αλ^e−αλ^e^{-\alpha\hat\lambda}e−αλ(S)e−αλ(S)e^{-\alpha\lambda(S)}

5
来自同一分布族的两个随机变量是否可能具有相同的期望和方差,但具有更高的矩?
我在考虑位置规模家庭的含义。我的理解是,对于位置标尺族的每个成员,其参数分别位置标尺和b标尺,则Z =(Xa)/ b的分布不取决于任何参数,并且属于该族的每个X都是相同的。XXXaaabbbZ=(X−a)/bZ=(X−a)/bZ =(X-a)/bXXX 所以我的问题是,您能否提供一个示例,其中将来自同一分布族的两个随机数标准化,但不会导致具有相同分布的随机变量? 假设XXX和YYY来自同一个分布族(例如,我所说的族指正态或Gamma等等)。限定: Z1=X−μσZ1=X−μσZ_1 = \dfrac{X-\mu}{\sigma} Z2=Y−μσZ2=Y−μσZ_2 = \dfrac{Y-\mu}{\sigma} 我们知道Z1Z1Z_1和Z2Z2Z_2都具有相同的期望和方差,μZ=0,σ2Z=1μZ=0,σZ2=1\mu_Z =0, \sigma^2_Z =1。 但是他们可以有更高的时刻吗? 我试图回答这个问题的尝试是,如果XXX和Y的分布YYY取决于两个以上的参数。我正在考虑具有3个参数的广义t−studentt−studentt-student。 但是,如果参数数量为≤2≤2\le2并且XXX和YYY来自相同的分布族,并且具有相同的期望和方差,那么是否意味着Z1Z1Z_1和Z2Z2Z_2具有相同的分布(较高的矩)?

2
掷硬币时的Beta分布
克鲁施克(Kruschke)的贝叶斯书说,关于使用Beta分布来掷硬币, 例如,如果除了硬币没有正面和反面的知识之外,我们没有其他先验知识,那等于先前观察到一个头和一条尾巴对应于a = 1和b = 1。 为什么没有信息等于看到一头一尾-0头和0尾对我来说似乎更自然。

1
重要抽样的直观示例
我的背景是计算机科学。我对蒙特卡洛采样方法还很陌生,尽管我了解数学原理,但我很难拿出直观的示例进行重要性采样。更准确地说,有人可以提供以下示例: 一个原始分布,一个人不能从中抽样,但一个人可以估算 重要度分布,可以从原始分布中进行抽样并得到足够的信息。

1
联合MGF独立的充要条件
假设我有一个联合矩生成函数用于CDF的联合分布。是两个必要的和足够的用于独立条件和?我检查了几本教科书,只提到了必要性:MX,Y(s,t)MX,Y(s,t)M_{X,Y}(s,t)FX,Y(x,y)FX,Y(x,y)F_{X,Y}(x,y)MX,Y(s,t)=MX,Y(s,0)⋅MX,Y(0,t)MX,Y(s,t)=MX,Y(s,0)⋅MX,Y(0,t)M_{X,Y}(s,t)=M_{X,Y}(s,0)⋅M_{X,Y}(0,t)XXXYYY FX,Y(x,y)=FX(x)⋅FY(y)⟹MX,Y(s,t)=MX(s)⋅MY(t)FX,Y(x,y)=FX(x)⋅FY(y)⟹MX,Y(s,t)=MX(s)⋅MY(t)F_{X,Y}(x,y)=F_X(x)\cdot F_Y(y) \implies M_{X,Y}(s,t)=M_X(s) \cdot M_Y(t) 该结果很明显,因为独立性意味着。由于边际的MGF由联合MGF决定,我们具有:MX,Y(s,t)=E(esX+tY)=E(esX)E(etY)MX,Y(s,t)=E(esX+tY)=E(esX)E(etY)M_{X,Y}(s,t)=\mathbb{E}(e^{sX+tY})=\mathbb{E}(e^{sX}) \mathbb{E}(e^{tY}) X,Y independent⟹MX,Y(s,t)=MX,Y(s,0)⋅MX,Y(0,t)X,Y independent⟹MX,Y(s,t)=MX,Y(s,0)⋅MX,Y(0,t)X,Y\text{ independent} \implies M_{X,Y}(s,t)=M_{X,Y}(s,0)⋅M_{X,Y}(0,t) 但是在网上搜索后,我发现相反的情况只是短暂的参考,没有证据。以下草图证明可行吗? 给定联合MGF,这唯一地确定和及其MGF 的边际分布, 和。仅边际与许多其他可能的联合分布兼容,并且唯一地确定和独立的联合分布,其中CDF和MGF:MX,Y(s,t)MX,Y(s,t)M_{X,Y}(s,t)XXXYYYMX(s)=MX,Y(s,0)MX(s)=MX,Y(s,0)M_X(s)=M_{X,Y}(s,0)MY(t)=MX,Y(0,t)MY(t)=MX,Y(0,t)M_Y(t)=M_{X,Y}(0,t)XXXYYYFindX,Y(x,y)=FX(x)⋅FY(y)FX,Yind(x,y)=FX(x)⋅FY(y)F_{X,Y}^{\text{ind}}(x,y)=F_X(x) \cdot F_Y(y) MindX,Y(s,t)=MX(s)⋅MY(t)=MX,Y(s,0)⋅MX,Y(0,t)MX,Yind(s,t)=MX(s)⋅MY(t)=MX,Y(s,0)⋅MX,Y(0,t)M_{X,Y}^{\text{ind}}(s,t) = M_X(s) \cdot M_Y(t) = M_{X,Y}(s,0)⋅M_{X,Y}(0,t) 因此,如果我们得到原始MGF的,则为足以显示。然后根据MGF的唯一性,我们原始的联合分布为和和是独立的。MX,Y(s,t)=MX,Y(s,0)⋅MX,Y(0,t)MX,Y(s,t)=MX,Y(s,0)⋅MX,Y(0,t)M_{X,Y}(s,t) = M_{X,Y}(s,0)⋅M_{X,Y}(0,t)MX,Y(s,t)=MindX,Y(s,t)MX,Y(s,t)=MX,Yind(s,t)M_{X,Y}(s,t) = M_{X,Y}^{\text{ind}}(s,t)FX,Y(x,y)=FindX,Y(x,y)=FX(x)⋅FY(y)FX,Y(x,y)=FX,Yind(x,y)=FX(x)⋅FY(y)F_{X,Y}(x,y) = F_{X,Y}^{\text{ind}}(x,y) = F_X(x) \cdot F_Y(y)XXXYYY

2
满足详细平衡的MCMC是否会产生固定分布?
我想我了解详细的平衡条件的方程,该方程表明对于转移概率和平稳分布π,如果q (x | y )π (y )= q (y | x )π (X ),qqqππ\piq(x | y)π(y)= q(y| x)π(x ),q(x|y)π(y)=q(y|x)π(x),q(x|y)\pi(y)=q(y|x)\pi(x), 如果我将其重述为: q(x | y)q(y| X)= π(x )π(y)。q(x|y)q(y|x)=π(x)π(y).\frac{q(x|y)}{q(y|x)}= \frac{\pi(x)}{\pi(y)}. 基本上,从状态转换到状态y的概率应与它们的概率密度之比成正比。Xxxÿyy

1
雅可比因子导致的不同概率密度变换
在Bishop的模式识别和机器学习中,在引入概率密度之后,我读了以下内容:p(x∈(a,b))=∫bap(x)dxp(x∈(a,b))=∫abp(x)dxp(x\in(a,b))=\int_a^bp(x)\textrm{d}x 在变量的非线性变化下,由于雅可比因子,概率密度与简单函数的变换不同。例如,如果我们考虑变量,则函数变为 。现在考虑 相对于新变量对应于密度的概率密度,其中满足表示和是不同密度的事实。观测落在范围将用于的小值 ,被变换成的范围内x=g(y)x=g(y)x = g(y)f(x)f(x)f(x)f~(y)=f(g(y))f~(y)=f(g(y))\tilde{f}(y) = f(g(y))px(x)px(x)p_x(x)py(y)py(y)p_y(y)yyypx(x)px(x)p_x(x)py(y)py(y)p_y(y)(x,x+δx)(x,x+δx)(x, x + \delta x)δxδx\delta x(y,y+δy(y,y+δy(y, y + \delta y),其中 px(x)δx≃py(y)δypx(x)δx≃py(y)δyp_x(x)\delta x \simeq p_y(y)δy,因此py(y)=px(x)|dxdy|=px(g(y))|g′(y)|py(y)=px(x)|dxdy|=px(g(y))|g′(y)|p_y(y) = p_x(x) |\frac{dx}{dy}| = p_x(g(y)) | g\prime (y) |。 雅可比因子是什么?所有事物的确切含义(可能是定性)是什么?Bishop说,此属性的结果是,概率密度最大值的概念取决于变量的选择。这是什么意思? 对我来说,这有点出乎意料(考虑在介绍章节中)。我会感谢一些提示,谢谢!




2
为什么“ X中的错误”模型没有得到更广泛的使用?
当我们计算回归系数的标准误差时,我们没有考虑设计矩阵的随机性。例如,在OLS中,我们将为XXXVAR (β^)变种(β^)\text{var}(\hat{\beta})var ((XŤX)− 1XŤÿ)= σ2(XŤX)− 1变种((XŤX)-1个XŤÿ)=σ2(XŤX)-1个\text{var}((X^TX)^{-1}X^TY) = \sigma^2(X^TX)^{-1} 如果将视为随机数,则总方差定律在某种意义上也将要求的方差也有其他贡献。即XXXXXX VAR (β^)= var (E(β^| X))+ E(var (β^| X))。变种(β^)=变种(Ë(β^|X))+Ë(变种(β^|X))。\text{var}(\hat{\beta}) = \text{var}(E(\hat{\beta}|X)) + E(\text{var}(\hat{\beta}|X)). 如果OLS估计量确实是无偏的,则第一项就消失了,因为期望是一个常数。第二项实际上变为:。σ2COV (X)− 1σ2冠状病毒(X)-1个\sigma^2 \text{cov}(X)^{-1} 如果已知的参数模型,为什么不用实际的协方差估计替换。例如,如果是随机治疗分配,则二项式方差应该是更有效的估计?XXXXŤXXŤXX^TXXXXË(X)(1 − E(X))Ë(X)(1个-Ë(X))E(X)(1-E(X)) 我们为什么不考虑使用灵活的非参数模型来估计OLS估计中可能的偏差来源,并适当考虑第一个总定律方差项设计敏感性(即的分布)”吗?XXXVAR (è(β^| X))变种(Ë(β^|X))\text{var}(E(\hat{\beta}|X))

2
贝叶斯主义者如何使用蒙特卡洛模拟方法验证其方法?
背景:我拥有社会心理学博士学位,在我的定量课程中几乎没有涉及理论统计和数学。通过本科和研究生学校,我通过“经典”常客制框架得到了教育(可能与社会科学中的许多人一样)。现在,我也很喜欢R和使用模拟方法来验证方法,使工作方式对我来说,比数学上的证明更有意义(再次:定量社会科学的背景,而不是理论统计)。惯常方法和模拟方法对我来说意义非凡。因为常客将概率视为长期可能性(例如,如果我执行任意多次,并且这种情况发生在50%的时间中,那么就有50%的概率)。我们可以使用蒙特卡洛方法来模拟这种长期运行! 并发症:由于大学阶段,我已经很清楚的贝叶斯方法,并一直存在的人在我的生命给我打电话贝叶斯一边,说,结果更容易解释,我们得到概率的一个假设,而不是数据我真的很喜欢这个,参加了贝叶斯课程,阅读了一些贝叶斯书籍和论文,现在对Stan及其相关的R包非常熟悉。 输入Mayo:在思考了一段时间的“贝叶斯可能是未来之路”之后,我读了Deborah Mayo的“ 统计推断”作为“严格测试”。她说,她在书的开头并没有选择任何一方,但她这样做:她是一名常客,许多书都在捍卫常客的方法论。我不想讨论我们是否认为她认为证据有效的方式,但这让我思考:贝叶斯真的是广告宣传的全部吗?我的意思是,贝叶斯人群是如此分散,以至于我什至不知道经常在贝叶斯框架中分析数据的“正确”方法。通常我会用rstanarm现在的点估计值和可信区间...这通常与常客的估计和置信区间非常接近。我可能会进行模型比较,但是我总是害怕将贝叶斯因素描述为后验概率比较等。 更多思考:在梅奥的书中,我一直在思考:有一种方法可以使用计算机来确保我们的常客方法有效,因为从长远来看,概率是可以看到的,并且可以模拟。看来,贝叶斯人甚至不能就概率的确切性达成共识,这取决于贝叶斯学派(默认,主观等)。这引出我的问题: 问题:如果长期未将概率定义为费率,贝叶斯主义者如何使用蒙特卡罗模拟方法验证他们的方法是否正确定义了不确定性(即,计算有效的可信区间和后验分布)? 示例:我创建一个数据生成器。这只是从伯努利分布中以0.​​5的概率进行模拟: set.seed(1839) p <- .50 n <- 100 gen_dat <- function(n, p) { rbinom(n, 1, p) } 现在,假设我要确保逻辑回归中的置信区间实际上是有效的。我可以多次模拟回归,并确保实际总体值在95%的时间内处于95%的置信区间内。这是一个仅拦截的模型,所以我只想确保自己估计p正确: set.seed(1839) iter <- 10000 results <- sapply(seq_len(iter), function(zzz) { mod <- glm(gen_dat(n, p) ~ 1, binomial) conf <- suppressMessages(confint(mod)) log(p / (1 - p)) < …

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.