Questions tagged «probability»

概率提供了特定事件可能发生的定量描述。


3
从1到100之间的25个随机数中,最高的概率出现多次的概率是多少?
在许多在线游戏中,当玩家完成一项艰巨的任务时,有时会给予特殊奖励,每个完成任务的人都可以使用。这通常是坐骑(运输方式)或其他虚荣物品(不会提高角色性能的物品,主要用于外观定制)。 当给出这样的奖励时,确定谁获得奖励的最常见方法是通过随机数。游戏通常有一个特殊的命令,该命令会生成一个介于1到100之间的随机数(可能是伪随机数,而不是加密安全随机数)(有时玩家可以选择另一种价差,但100是最常见的)。每个玩家都使用此命令,所有玩家都可以看到谁掷出了哪些东西,并且该物品被授予了掷骰最高的人。大多数游戏甚至都具有内置系统,玩家只需按下一个按钮,而每个人都按下按钮后,游戏就会自动完成其余的工作。 有时,有些玩家会产生相同的高数字,而没人能击败他们。这通常由那些重新生成号码的玩家来解决,直到有一个唯一的最高号码为止。 我的问题如下:假设一个随机数生成器可以以相同的概率生成1到100之间的任何数字。假设您有一组25位玩家,每个玩家使用这样的随机数生成器生成1个数字(每个都有自己的种子)。您将拥有25个介于1到100之间的数字,对多少个掷骰子的玩家没有限制,并且数字之间没有关系。超过1个玩家产生最高生成数字的机会是什么?换句话说,平局的可能性是多少?

2
两个iid对数正态随机变量的差
令和为2个iidrv,其中。我想知道的分布。X 2日志(X 1),日志(X 2)〜Ñ (μ ,σ )X 1 - X 2X1X1X_1X2X2X_2log(X1),log(X2)∼N(μ,σ)log⁡(X1),log⁡(X2)∼N(μ,σ)\log(X_1),\log(X_2) \sim N(\mu,\sigma)X1−X2X1−X2X_1 - X_2 我所能做的最好是将二者的泰勒级数取整,得出的差值是两个法线rv和两个卡方rv的差之和,以及其余各项之间的差。是否有更直接的方法来获取2个iid对数正态rv之间的差异的分布?

1
逆向傅里叶变换进行Fisher分布
Fisher 分布的特征函数为: 其中是合流超几何函数。我试图解决傅立叶逆变换所述的 -convolution恢复可变的密度,那就是: 的目的是获得之和的分布C (t )= Γ (α + 1F(1 ,α )F(1个,α)\mathcal{F}(1,\alpha)UC(t )= Γ (α + 12) U(12,1 - α2,- 我吨α )Γ (α2)C(Ť)=Γ(α+1个2)ü(1个2,1个-α2,-一世Ťα)Γ(α2)C(t)=\frac{\Gamma \left(\frac{\alpha +1}{2}\right) U\left(\frac{1}{2},1-\frac{\alpha }{2},-i t \alpha \right)}{\Gamma \left(\frac{\alpha }{2}\right)}üüU n x F − 1 t ,x( C (t )n ) nF− 1吨,XFŤ,X-1个\mathcal {F} _ {t,x}^{-1}ññnXXxF− 1吨,X(C(吨)ñ)FŤ,X-1个(C(Ť)ñ)\mathcal …

3
伯努利试验或乔治·卢卡斯电影实验获得K成功
我正在阅读“醉汉小径”,因此无法理解其中的一个故事。 它去了: 想象一下,乔治·卢卡斯(George Lucas)拍了一部新的《星球大战》(Star Wars)电影,并且在一个测试市场上决定进行疯狂的实验。他发行了两部相同的电影:《星球大战:情节A》和《星球大战:情节B》。每部电影都有自己的营销活动和发行时间表,相应的细节相同,只是一部电影的预告片和广告说“第A集”,而另一部电影的广告和预告片说“第B集”。 现在我们进行一次竞赛。哪部电影会更受欢迎?假设我们看了前20,000名观众,并记录了他们选择看的电影(忽略了那些顽固的粉丝,他们将同时前往两者,然后坚持认为两者之间存在细微但有意义的差异)。由于电影和他们的营销活动是相同的,因此我们可以用数学方法对游戏进行建模:想象一下将所有观众排成一排,然后依次为每个观众掷硬币。如果硬币降落,则他或她会看到情节A;如果硬币掉落了,那就是第B集。由于硬币有两种上升的机会均等,您可能会认为在这场实验性的票房大战中,每部电影的首映时间应占一半。 但是随机性的数学则相反:主角变化的最可能次数是0,而两部影片中的一部​​将率过20,000个客户的可能性比主角不断跷跷板要高88倍” 我(可能是错误地)将其归因于一个简单的伯努利试验问题,并且必须说我不明白为什么领导者平均不会跷跷板!谁能解释?

1
我必须掷骰子几次来自信地评估其公平性?
(事先对使用非专业语言而非统计语言的道歉。) 如果我想以合理的确定性来衡量将特定的物理六面模具的每一侧滚动到大约+/- 2%以内的几率,那么需要多少个示例模具卷? 即我需要掷骰子多少次,计算每个结果,以确保98%确保骰子掷出骰子的几率在14.6%-18.7%之内?(或一些类似的标准,其中大约98%的人会确保骰子的公平性在2%以内。) (这是使用骰子的模拟游戏的现实世界关注点,希望确保某些骰子设计的滚动数字接近1/6的可能性可以接受。有人声称,许多常见的骰子设计被测量为滚动29%1)。每次将几个这样的骰子滚动1000次。)

3
为什么是最大可能性而不是预期可能性?
为什么获得参数的最大似然估计如此常见,但实际上您从未听说过预期似然参数估计(即,基于期望值而不是似然函数的模式)?这主要是出于历史原因,还是出于实质性的技术或理论原因? 使用预期似然估计而不是最大似然估计是否有明显的优势和/或劣势? 有没有在预期的似然估计一些地区的常规使用?

1
随机变量生成的代数是什么意思?
通常,在我的统计(自学)过程中,我遇到过术语“由随机变量生成的代数”。我不了解Wikipedia上的定义,但最重要的是,我不了解它的直觉。为什么/何时需要由随机变量生成的代数?它们是什么意思?我知道以下几点:σσ\sigmaσ -σ−\sigma- 一 -代数上的一组是的子集的非空集其中包含,是根据补充和下可数工会关闭。σ Ω Ω Ωσ\sigmaΩ\OmegaΩ\OmegaΩ\Omega 我们引入代数在无限的样本空间上建立概率空间。特别是,如果是无穷无穷的,我们知道可能存在不可测量的子集(无法为它们定义概率的集合)。因此,我们不能仅使用的幂集作为事件集。我们需要一个较小的集合,该集合仍然足够大,以便我们可以定义有趣事件的概率,并且可以讨论随机变量序列的收敛。σ Ω Ω P(Ω )˚Fσ\sigmaΩ\OmegaΩ\Omega P(Ω)\mathcal{P}(\Omega)F\mathcal{F} 简而言之,我认为我对代数有一个相当直观的理解。我想对随机变量生成的代数有一个类似的理解:定义,我们为什么需要它们,直觉,一个示例...σ - σ -σ−\sigma-σ−\sigma-

4
为什么对于深度学习模型,softmax输出不是一个好的不确定性度量?
我已经在卷积神经网络(CNN)上工作了一段时间,主要是用于语义分割/实例分割的图像数据。我经常将网络输出的softmax可视化为“热图”,以查看特定类别的每个像素激活的数量。我将低激活率解释为“不确定” /“不确定”,将高激活率解释为“某些” /“自信”的预测。基本上这意味着解释SOFTMAX输出(值的范围内)作为模型的概率或(未)确定性量度。(0 ,1 )(0,1个)(0,1) (例如,我已经解释了在其像素上平均具有低softmax激活的对象/区域,这样CNN很难检测到,因此CNN对于预测这种对象“不确定”。) 在我看来,这通常是有效的,将额外的“不确定”区域样本添加到训练结果中可以改善这些结果。但是,我现在从不同方面经常听到,使用/解释softmax输出作为(不确定性)度量不是一个好主意,并且通常不鼓励这样做。为什么? 编辑:为了澄清我在这里要问的问题,到目前为止,我将在回答这个问题时详细阐述我的见解。但是,以下所有论点都没有向我说明**为什么它通常是个坏主意**,正如同事,主管反复说明的那样,例如“ 1.5” 在分类模型中,在管道末端(softmax输出)获得的概率向量通常被错误地解释为模型置信度 或在“背景”部分中: 尽管将卷积神经网络的最终softmax层给出的值解释为置信度分数可能很诱人,但我们需要注意不要过多地阅读它。 上面的资料源认为将softmax输出用作不确定性度量是不好的,原因是: 对真实图像的不可察觉的扰动可以将深层网络的softmax输出更改为任意值 这意味着softmax输出对于“不可察觉的扰动”并不稳健,因此它的输出不能用作概率。 另一篇论文提到“ softmax输出=置信度”的想法,并认为通过这种直觉网络可以很容易地被愚弄,从而产生“无法识别图像的高置信度输出”。 (...)与特定类别相对应的区域(在输入域中)可能比该类别的训练示例所占用的该区域中的空间大得多。结果是,图像可能位于分配给某个类别的区域内,因此在softmax输出中被分类为具有较大的峰值,而仍然与训练集中该类别中自然出现的图像相距甚远。 这意味着与训练数据相距甚远的数据永远不应获得很高的置信度,因为模型“无法”确定它(因为它从未见过)。 但是:这不是简单地质疑整个NN的泛化特性吗?即,具有softmax损失的NN不能很好地推广到(1)“无法察觉的扰动”或(2)远离训练数据的输入数据样本,例如无法识别的图像。 按照这种推理,我仍然不明白,为什么在实践中,没有经过抽象和人为改变的数据与训练数据(即大多数“真实”应用程序)相比,将softmax输出解释为“伪概率”是一个不好的选择理念。毕竟,它们似乎很好地代表了我的模型所确定的内容,即使它是不正确的(在这种情况下,我需要修复我的模型)。而且模型不确定性是否总是“仅”为近似值?

3
Frequentist和Bayesian在“可能性”的定义上有什么区别吗?
有些资料说似然函数不是条件概率,有些则说是。这让我很困惑。 根据我所见的大多数资料,给定样本,具有参数的分布的可能性应该是概率质量函数的乘积:θθ\thetannnxixix_i L(θ)=L(x1,x2,...,xn;θ)=∏i=1np(xi;θ)L(θ)=L(x1,x2,...,xn;θ)=∏i=1np(xi;θ)L(\theta) = L(x_1,x_2,...,x_n;\theta) = \prod_{i=1}^n p(x_i;\theta) 例如,在Logistic回归中,我们使用优化算法来最大化似然函数(最大似然估计),以获得最优参数,从而获得最终的LR模型。给定我们假设彼此独立的训练样本,我们希望最大化概率乘积(或联合概率质量函数)。这对我来说似乎很明显。nnn 根据“ 可能性,条件概率和失败率之间的关系 ”,“可能性不是概率,也不是条件概率”。它还提到:“仅在贝叶斯对似然性的理解中,即,如果假设是随机变量,那么似然性就是条件概率。”θθ\theta 我读到了关于在常客和贝叶斯之间对待学习问题的不同观点。 根据消息来源,对于贝叶斯推断,我们具有先验,似然性,并且我们希望使用贝叶斯定理获得后验:P(θ)P(θ)P(\theta)P(X|θ)P(X|θ)P(X|\theta)P(θ|X)P(θ|X)P(\theta|X) P(θ|X)=P(X|θ)×P(θ)P(X)P(θ|X)=P(X|θ)×P(θ)P(X)P(\theta|X)=\dfrac{P(X|\theta) \times P(\theta)}{P(X)} 我不熟悉贝叶斯推理。为什么P(X|θ)P(X|θ)P(X|\theta),其是在它的参数条件所观察到的数据的分发,也被称为可能性有多大?在Wikipedia中,它说有时写成L(θ|X)=p(X|θ)L(θ|X)=p(X|θ)L(\theta|X)=p(X|\theta)。这是什么意思? Frequentist和Bayesian对可能性的定义之间有区别吗? 谢谢。 编辑: 解释贝叶斯定理的方法有多种-贝叶斯定理和惯常论的解释(请参阅:贝叶斯定理-维基百科)。

2
这个离散分布有名称吗?
这个离散分布有名称吗?对于i∈1...Ni∈1...Ni \in 1...N f(i)=1N∑Nj=i1jf(i)=1N∑j=iN1jf(i) = \frac{1}{N} \sum_{j = i}^N \frac{1}{j} 我从以下内容中发现了此分布:我有按实用程序功能排列的项目的列表。我想随机选择其中一项,偏向列表的开头。因此,我首先均匀地选择介于1和N之间的索引j。然后,我在索引1和j之间选择一个项目。我相信这个过程会导致上述分布。NNNjjjNñNjjj

1
将很小的似然值转换(归一化)为概率
我正在编写一种算法,在给定模型的情况下,我计算一组数据集的似然度,然后需要对每种似然度进行标准化(以概率表示)。因此[0.00043,0.00004,0.00321]之类的内容可能会转换为[0.2,0.03,0.77]之类的内容。 我的问题是,我正在使用的对数可能性很小(例如,在对数空间中,值类似于-269647.432,-231444.981等)。在我的C ++代码中,当我尝试添加两个(通过采用它们的指数)时,得到的答案是“ Inf”。我试图将它们添加到日志空间(日志的加法/减法)中,但是再次遇到相同的问题。 谁能对此发表自己的见解?

3
比较和对比,p值,显着性水平和I型错误
我想知道是否有人可以简要介绍p值的定义和使用,显着性水平和I类错误。 我了解p值的定义是“获得至少与我们实际观察到的数据一样极端的测试统计信息的概率”,而显着性水平只是用来衡量p值是否有意义的任意临界值。 。I类错误是拒绝原假设为零的错误。但是,我不确定重要性级别和I类错误之间的区别,这是不是一个相同的概念? 例如,假设有一个非常简单的实验,我将硬币掷1000次并计算它落在“头”上的次数。我的零假设H0是正面= 500(无偏硬币)。然后,将我的显着性水平设置为alpha = 0.05。 我将硬币翻转1000次,然后计算p值,如果p值> 0.05,则我无法拒绝原假设,如果p值<0.05,则我拒绝原假设。 现在,如果我重复进行此实验,每次计算p值,或者拒绝或未能拒绝原假设,并保持对我拒绝/失败拒绝的计数,那么我最终将拒绝5%的原假设实际上是正确的,对吗?这是类型I错误的定义。因此,如果执行重复实验,Fisher重要性检验中的重要性水平实质上就是Neyman-Pearson假设检验中的I型错误。 现在关于p值,如果我从上一个实验中获得了0.06的p值,并且我进行了多次实验并计算了所有从0到0.06得到p值的值,那么我也将没有拒绝真实零假设的可能性为6%?

2
我们如何限制随机变量最大的概率?
\newcommand{\P}{\mathbb{P}}假设我们有NNN独立的随机变量X1X1X_1,……\ldots,XnXnX_n具有有限的均值μ1≤…≤μNμ1≤…≤μN\mu_1 \leq \ldots \leq \mu_N和方差σ21σ12\sigma_1^2,……\ldots,σ2NσN2\sigma_N^2。我正在寻找任意Xi≠XNXi≠XNX_i \neq X_N大于所有其他XjXjX_j,j \ neq i的概率的无分布边界j≠ij≠ij \neq i。 换句话说,如果为了简单起见,我们假设X_i的分布XiXiX_i是连续的(使得P(Xi=Xj)=0P(Xi=Xj)=0\P(X_i = X_j) = 0),那么我正在寻找 P(Xi=maxjXj).P(Xi=maxjXj). \P( X_i = \max_j X_j ) \enspace. 如果N=2N=2N=2,我们可以使用切比雪夫不等式得到: P(X1=maxjXj)=P(X1>X2)≤σ21+σ22σ21+σ22+(μ1−μ2)2.P(X1=maxjXj)=P(X1>X2)≤σ12+σ22σ12+σ22+(μ1−μ2)2. \P(X_1 = \max_j X_j) = \P(X_1 > X_2) \leq \frac{\sigma_1^2 + \sigma_2^2}{\sigma_1^2 + \sigma_2^2 + (\mu_1 - \mu_2)^2} \enspace. 我想找到一般N的一些简单(不一定紧)边界NNN,但是我无法找到(美学上)一般N的令人满意的结果NNN。 请注意,这些变量不假定为iid。欢迎对相关工作提出任何建议或参考。 更新:回想一下,假设μj≥μiμj≥μi\mu_j \geq …


By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.