Questions tagged «intuition»

寻求对统计数据进行概念或非数学理解的问题。


2
柯西分布是某种“不可预测的”分布吗?
柯西分布是某种“不可预测的”分布吗? 我试着做 cs <- function(n) { return(rcauchy(n,0,1)) } 在R中获得了多个n值,并注意到它们有时会生成非常不可预测的值。 比较一下例如 as <- function(n) { return(rnorm(n,0,1)) } 这似乎总是给点“紧凑”的云。 通过这张图片,它应该看起来像正态分布吗?然而,它可能仅适用于一部分价值。还是诀窍在于,柯西标准偏差(如下图所示)收敛得更慢(左右方向),因此尽管概率较低,但允许更严重的离群值? 这里是正常rv,cs是柯西rv。 但是,由于异常值的极端,Cauchy pdf的尾部可能永远不会收敛吗?

7
直观地理解为什么泊松分布是二项式分布的极限情况
在DS Sivia的“数据分析”中,从二项式分布推导了泊松分布。 他们认为,当M→∞M→∞M\rightarrow\infty,泊松分布是二项式分布的极限情况,其中MMM是试验次数。 问题1:如何直观地理解该论点? 问题2:为什么large- MMM的限制M!N!(M−N)!M!N!(M−N)!\frac{M!}{N!(M-N)!}等于MNN!MNN!\frac{M^{N}}{N!},其中M次试验的成功次数为?(此步骤用于推导中。)NNNMMM

3
出于直觉,现实生活中有一些不相关但相关的随机变量的例子是什么?
在解释为什么不相关并不意味着独立的过程中,有几个涉及一堆随机变量的示例,但它们似乎都非常抽象:1 2 3 4。 这个答案似乎是有道理的。我的解释:随机变量及其平方可能不相关(因为显然缺少相关性就像线性独立性一样),但是它们显然是相关的。 我猜一个例子是(标准化吗?)高度和高度2可能不相关,但相互依赖,但是我不明白为什么有人会比较高度和高度。22^222^2 为了使初学者具有基本概率论或类似目的的直觉,在现实生活中有哪些不相关但依存的随机变量示例?

2
平稳性的直观解释
我在脑海里挣扎了一段时间,这是您的想法吗?任何意见或进一步的想法将不胜感激。 平稳过程是一种生成时间序列值的过程,以使分布平均值和方差保持恒定。严格来说,这称为平稳性的弱形式或协方差/平均平稳性。 平稳性的弱形式是时间序列在整个时间中具有恒定的均值和方差。 简单地说,从业者说,平稳时间序列是没有趋势的-围绕恒定均值波动并且具有恒定方差。 不同滞后之间的协方差是恒定的,它不依赖于时间序列中的绝对位置。例如,t和t-1之间的协方差(一阶滞后)应始终相同(1960-1970年期间与1965-1975年期间或其他任何时期相同)。 在非平稳过程中,该序列不会恢复长期运行。因此,我们说非平稳时间序列并不意味着还原。在那种情况下,方差取决于时间序列中的绝对位置,并且随着时间的流逝方差变为无穷大。从技术上讲,自相关不会随时间衰减,但是在小样本中自相关确实会消失-尽管缓慢。 在固定过程中,冲击是暂时的,并且会随着时间的流逝消散(失去能量)。一段时间后,它们不会对新的时间序列值有所贡献。例如,第二次世界大战之前发生的事件(足够长的时间)产生了影响,但是今天的时间序列就像第二次世界大战从未发生过一样,我们可以说震撼失去了能量或消散。平稳性尤其重要,因为许多经典的计量经济学理论都是在平稳性的假设下得出的。 平稳性的一种强烈形式是,时间序列的分布与波谷时间完全相同。换句话说,原始时间序列的分布与滞后时间序列(有任何数量的滞后)甚至时间序列的子段完全相同。例如,强形式还表明,即使对于子细分市场1950-1960、1960-1970甚至是重叠的时期(如1950-1960和1950-1980),分布也应该相同。这种平稳形式称为强,因为它不假设任何分布。它只说概率分布应该相同。在平稳性较弱的情况下,我们通过均值和方差定义分布。我们可以简化一下,因为我们隐式地假设正态分布,正态分布完全由均值,方差或标准差定义。这只是说序列(在时间序列内)的概率测度与相同时间序列内值的滞后/移位序列的概率测度相同。


1
距离相关性有直观的表征吗?
我一直在注视着维基百科页面上的距离相关性,该距离相关性似乎由如何计算来表征。虽然我可以进行计算,但仍在努力寻找距离相关量度以及为什么计算看起来像它们一样。 是否存在(或许多)更直观的距离相关特征,可以帮助我理解其测量结果? 我意识到要求直觉有点含糊,但是如果我知道我要的是哪种直觉,我可能一开始就不会要求。对于两个随机变量之间的距离相关情况(即使在两个随机向量之间定义了距离相关)的情况,我也很满意。

4
对一致和渐近无偏的区别的直觉理解
我试图对“一致”和“渐近无偏”一词之间的区别和实际区别获得直观的理解和感觉。我知道他们的数学/统计定义,但是我正在寻找直观的东西。在我看来,看看他们的个人定义,他们几乎是同一回事。我意识到差异一定很细微,但我看不到。我试图将差异可视化,但不能做到。有人可以帮忙吗?


1
赔率变得简单
我在理解赔率时遇到了一些麻烦,我只想对如何解释赔率进行基本解释。 我发现了各种与赔率相关的帖子,但其中大多数比我想理解的要复杂。这是我如何解释赔率的示例:如果某事件发生的几率是3比1,那么该事件每发生1次就会发生3次。我不知道这种解释是否正确。因此,在解释赔率方面的任何指导和更多示例将不胜感激。

1
循环统计中更高时刻的直觉
在循环统计中,圆上具有值的随机变量的期望值定义为 (请参阅Wikipedia)。这是一个非常自然的定义,方差 因此,我们不需要第二分钟即可定义方差!ZZZSSSm1(Z)=∫SzPZ(θ)dθm1(Z)=∫SzPZ(θ)dθ m_1(Z)=\int_S z P^Z(\theta)\textrm{d}\theta Var(Z)=1−|m1(Z)|.Var(Z)=1−|m1(Z)|. \mathrm{Var}(Z)=1-|m_1(Z)|. 尽管如此,我们定义了较高的矩 我承认,乍一看也很自然,并且与线性统计中的定义非常相似。但是我仍然感到有些不舒服,并且有以下几点mn(Z)=∫SznPZ(θ)dθ.mn(Z)=∫SznPZ(θ)dθ. m_n(Z)=\int_S z^n P^Z(\theta)\textrm{d}\theta. 问题: 1. 用上面定义的更高的矩(直觉)来衡量什么?分布的哪些特性可以用它们的矩来表征? 2.在较高矩的计算中,我们使用复数乘法,尽管我们将随机变量的值仅视为平面中的矢量或角度。我知道复数乘法在这种情况下本质上是角度的加法,但是仍然: 为什么复数乘法对循环数据有意义?

1
对Halmos-Savage定理的直觉理解
所述Halmos-野蛮定理说,对一个主导统计模型(Ω ,A,P)(Ω,A,P)(\Omega, \mathscr A, \mathscr P)的统计T:(Ω,A,P)→(Ω′,A′)T:(Ω,A,P)→(Ω′,A′)T: (\Omega, \mathscr A, \mathscr P)\to(\Omega', \mathscr A')是足够的,如果(且仅当)的所有{P∈P}{P∈P}\{P \in \mathscr{P} \} 有一个TTT氡Nikodym导衍生物的-measurable版本dPdP∗dPdP∗\frac{dP}{dP*},其中dP∗dP∗dP*是特权的措施,使得P∗=∑∞i=1PiciP∗=∑i=1∞PiciP*=\sum_{i=1}^\infty P_i c_i 为ci>0,∑∞i=1ci=1ci>0,∑i=1∞ci=1c_i >0, \sum _{i=1}^\infty c_i =1个Pi∈PPi∈PP_i \in \mathscr P。 我试图直观地理解为什么该定理成立,但我没有成功,所以我的问题是是否存在一种直观的方法来理解该定理。

2
对分布均值的瞬间有直觉吗?
有人可以提供一个直觉来解释为什么概率分布的较高矩(如第三和第四矩)分别对应于偏度和峰度吗?具体来说,为什么对三次方或三次方的均值方差最终转化为偏度和峰度的量度?有没有办法将此与函数的三阶或四阶导数联系起来?pXpXp_X 考虑偏度和峰度的以下定义: Skewness(X)=E[(X−μX)3]/σ3,Kurtosis(X)=E[(X−μX)4]/σ4.Skewness(X)=E[(X−μX)3]/σ3,Kurtosis(X)=E[(X−μX)4]/σ4.\begin{matrix} \text{Skewness}(X) = \mathbb{E}[(X - \mu_{X})^3] / \sigma^3, \\[6pt] \text{Kurtosis}(X) = \mathbb{E}[(X - \mu_{X})^4] / \sigma^4. \\[6pt] \end{matrix} 在这些方程式中,我们将归一化值提升至幂,并采用其期望值。我不清楚为什么将标准化随机变量提高到4的幂会产生“峰值”,或者为什么将标准化随机变量提高到3的幂会带来“偏斜”。这似乎是神奇而神秘的!(X−μ)/σ(X−μ)/σ(X-\mu)/\sigma

2
什么是完整的足够的统计数据?
我在理解完整的足够统计信息时遇到了一些麻烦? 令为足够的统计量。T=ΣxiT=ΣxiT=\Sigma x_i 如果且概率为1,则对于某些函数,它是一个完全足够的统计量。E[g(T)]=0E[g(T)]=0E[g(T)]=0ggg 但是,这是什么意思?我看过制服和Bernoulli的示例(第6页http://amath.colorado.edu/courses/4520/2011fall/HandOuts/umvue.pdf),但这不是直观的,我对集成感到困惑。 有人可以简单直观地解释吗?

2
Kolmogorov–Smirnov检验:随着样本量的增加,p值和ks检验的统计量减少
为什么p值和ks检验统计量会随着样本数量的增加而减少?以以下Python代码为例: import numpy as np from scipy.stats import norm, ks_2samp np.random.seed(0) for n in [10, 100, 1000, 10000, 100000, 1000000]: x = norm(0, 4).rvs(n) y = norm(0, 4.1).rvs(n) print ks_2samp(x, y) 结果是: Ks_2sampResult(statistic=0.30000000000000004, pvalue=0.67507815371659508) Ks_2sampResult(statistic=0.080000000000000071, pvalue=0.89375155241057247) Ks_2sampResult(statistic=0.03499999999999992, pvalue=0.5654378910227662) Ks_2sampResult(statistic=0.026599999999999957, pvalue=0.0016502962880920896) Ks_2sampResult(statistic=0.0081200000000000161, pvalue=0.0027192461984023855) Ks_2sampResult(statistic=0.0065240000000000853, pvalue=6.4573678008760032e-19) 凭直觉,我理解随着n的增长,测试“更加确定”了两种分布是不同的。但是,如果样本量很大,那么在诸如此类的相似性测试(如安德森·达林检验)或t检验中有什么意义,因为在这种情况下,当n很大时,总会发现分布是“明显”不同!?现在我想知道p值的意义到底是什么。它在很大程度上取决于样本量...如果p> 0.05而您希望降低样本量,则只需获取更多数据即可。如果p <0.05且您希望它更高,则删除一些数据。 同样,如果两个分布相同,则ks检验统计量将为0,p值为1。但是在我的示例中,随着n的增加,ks检验统计量表明分布随时间变得越来越相似(减小)。 ,但根据p值,它们会随着时间变得越来越多(也有所减少)。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.