Questions tagged «measure-theory»

3
为什么我们需要西格玛代数来定义概率空间?
我们进行了一个随机实验,以不同的结果形成样本空间 Ω,Ω,\Omega,我们感兴趣地观察了某些模式(称为事件 F.F.\mathscr{F}. 西格玛代数(或西格玛场)由可以分配概率度量PP\mathbb{P}的事件组成。满足某些属性,包括包含空集∅∅\varnothing和整个样本空间,以及描述与维恩图的并集和相交的代数。 概率被定义为之间的函数σσ\sigma代数和区间[0,1][0,1][0,1]。总的来说,三元组(Ω,F,P)(Ω,F,P)(\Omega, \mathscr{F}, \mathbb{P})形成了一个概率空间。 有人可以用简单的英语解释如果我们没有σσ\sigma代数的情况,为什么概率大厦会崩溃?它们只是被那个不可能的书法“ F”楔入中间。我相信它们是必要的;我看到一个事件与结果不同,但是如果没有σσ\sigma代数,会发生什么错误呢? 问题是:在哪种类型的概率问题中,包括σσ\sigma代数的概率空间的定义成为必要吗? 达特茅斯大学网站上的此在线文档提供了简单易懂的英语说明。这个想法是旋转指针在单位周长的圆周上逆时针旋转: 我们首先构造一个微调器,它由一个单位圆周的圆和一个指针组成,如图所示。我们在圆上选择一个点并将其标记为000,然后在圆上的每个其他点标记xXx,从000到该点的距离为逆时针方向。实验包括旋转指针并记录指针尖端处的点的标签。我们让随机变量XXX表示该结果的值。样品空间显然是间隔[0,1)[0,1个)[0,1)。我们想构建一个概率模型,其中每个结果均可能发生。daccess-ods.un.org daccess-ods.un.org如果我们像进行有限数量的可能结果那样进行实验,则必须将概率000分配给每个结果,因为否则,所有可能结果的概率之和将不会等于1。(实际上,对无数个实数求和是一件棘手的事情;特别是,为了使这种和具有任何意义,最多最多可以有许多个求和数可以不同于000)但是,如果所有分配的概率都是000,那么总和应该是 000,而不是11个1。 因此,如果我们为每个点分配任何概率,并且给定一个(无数个)无穷个点,那么它们的总和将>1>1个> 1。


3
为什么将随机变量定义为函数?
我在理解随机变量作为函数的概念时遇到问题。我了解机制(我认为),但不了解动机... 说是概率三倍,其中,是该区间的Borel-代数,是常规的Lebesgue测度。令为从到的随机变量,使得,,...,,因此在值1到6上具有离散的均匀分布。 Ω = [ 0 ,1 ] 乙σ P X 乙{ 1 ,2 ,3 ,4 ,5 ,6 } X ([ 0 ,1 / 6 ))= 1 X ([ 1 / 6 ,2 / 6 ))= 2 X ([(Ω ,B ,P)(Ω,B,P)(\Omega, B, P) Ω = [ 0 ,1 ]Ω=[0,1]\Omega = …

1
对Halmos-Savage定理的直觉理解
所述Halmos-野蛮定理说,对一个主导统计模型(Ω ,A,P)(Ω,A,P)(\Omega, \mathscr A, \mathscr P)的统计T:(Ω,A,P)→(Ω′,A′)T:(Ω,A,P)→(Ω′,A′)T: (\Omega, \mathscr A, \mathscr P)\to(\Omega', \mathscr A')是足够的,如果(且仅当)的所有{P∈P}{P∈P}\{P \in \mathscr{P} \} 有一个TTT氡Nikodym导衍生物的-measurable版本dPdP∗dPdP∗\frac{dP}{dP*},其中dP∗dP∗dP*是特权的措施,使得P∗=∑∞i=1PiciP∗=∑i=1∞PiciP*=\sum_{i=1}^\infty P_i c_i 为ci>0,∑∞i=1ci=1ci>0,∑i=1∞ci=1c_i >0, \sum _{i=1}^\infty c_i =1个Pi∈PPi∈PP_i \in \mathscr P。 我试图直观地理解为什么该定理成立,但我没有成功,所以我的问题是是否存在一种直观的方法来理解该定理。

2
集合的度量指数的无偏估计量?
假设我们有一个设置(可测量并适当地表现良好)S⊆B⊂RnS⊆B⊂RnS\subseteq B\subset\mathbb R^n,其中BBB紧凑。此外,假设我们可以从Lebesgue测度λ (⋅ )的BBB的均匀分布中抽取样本,并且知道测度λ (B )。例如,也许乙是一个盒子[ - Ç ,Ç ] Ñ含有小号。λ(⋅)λ(⋅)\lambda(\cdot)λ(B)λ(B)\lambda(B)BBB[−c,c]n[−c,c]n[-c,c]^nSSS 对于固定α∈Rα∈R\alpha\in\mathbb R,是否有来估计一个简单的无偏方式e−αλ(S)e−αλ(S)e^{-\alpha \lambda(S)}通过均匀采样以点BBB并且如果它们是内部或外部的检查SSS? 由于东西完全不是那么回事的例子,假设我们样本kkk点p1,…,pk∼Uniform(B)p1,…,pk∼Uniform(B)p_1,\ldots,p_k\sim\textrm{Uniform}(B)。然后,我们可以使用蒙特卡洛估计λ(S)≈λ^:=#{pi∈S}kλ(B).λ(S)≈λ^:=#{pi∈S}kλ(B).\lambda(S)\approx \hat\lambda:= \frac{\#\{p_i\in S\}}{k}\lambda(B). 但是,尽管 λ是一个无偏估计λ(小号),我不认为它的情况下ë-α λ是一个无偏估计ë-αλ(小号)。有什么方法可以修改此算法?λ^λ^\hat\lambdaλ(S)λ(S)\lambda(S)e−αλ^e−αλ^e^{-\alpha\hat\lambda}e−αλ(S)e−αλ(S)e^{-\alpha\lambda(S)}

1
解释概率测度之间的Radon-Nikodym导数?
我在某些点上已经看到了相对于另一种概率度量使用Radon-Nikodym导数,最明显的是在Kullback-Leibler散度中,其中它是模型对某些任意参数的概率度量的导数。关于真实参数:θ 0θθ\thetaθ0θ0\theta_0 dPθdPθ0dPθdPθ0\frac {dP_\theta}{dP_{\theta_0}} 这些都是在参数值条件下对数据点空间的概率度量。Pθ(D)=P(D|θ)Pθ(D)=P(D|θ)P_\theta(D)=P(D|\theta) 在Kullback-Leibler散度中或更普遍地在两个概率测度之间,这种Radon-Nikodym导数的解释是什么?

6
我想学习概率论,度量理论,最后是机器学习。我从哪里开始?[关闭]
已关闭。这个问题需要更加集中。它当前不接受答案。 想改善这个问题吗?更新问题,使其仅通过编辑此帖子来关注一个问题。 3年前关闭。 我想学习概率论,度量理论,最后是机器学习。我的最终目标是在一个软件中使用机器学习。 我在大学里学习了微积分和非常基本的概率,但是仅此而已。您知道一些我可以用来学习这些主题的在线课程或书籍吗?我在网上找到了很多资源,但它们似乎都是针对专业观众的。我知道这将需要一些时间,但是如果我想从头开始学习,该从哪里开始呢?

1
通过随机度量进行集成意味着什么?
目前,我在看Dirichlet过程随机效应模型的纸和型号规格如下: 其中α是比例参数和G ^0是基量度。稍后在纸,它表明,我们整合在基座度量函数G ^0如 ∫˚F(Ý Ĵ |θ,ψ Ĵ)ÿ一世ψ一世G= X一世β+ ψ一世+ ϵ一世〜g ^〜d P(α ,G0)yi=Xiβ+ψi+ϵiψi∼GG∼DP(α,G0) \begin{align*}y_{i} &= X_{i}\beta + \psi_{i} + \epsilon_{i}\\ \psi_{i} &\sim G \\ G &\sim \mathcal{DP}\left(\alpha, G_{0}\right) \end{align*}αα\alphaG0G0G_{0}G0G0G_{0}Dirichlet处理中的基本度量是cdf还是pdf?如果基本度量是高斯会怎样?∫F(yĴ| θ, ψĴ)dG0(ψĴ)。∫f(yj|θ,ψj)dG0(ψj). \int f\left(y_{j}|\theta, \psi_{j}\right)\, dG_{0}\left(\psi_{j}\right).
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.