有人可以帮助解释独立与随机之间的区别吗?


21

在统计中,独立和随机描述的特征相同吗?它们之间有什么区别?我们经常碰到类似“两个独立随机变量”或“随机抽样”的描述。我想知道它们之间的确切区别是什么。有人可以解释一下并举一些例子吗?例如非独立但随机的过程?


这是两个截然不同的概念(不是很深层次)合并。从意义上说,“独立”是独立生成的观察结果,“独立变量”具有其分布。
ttnphns

3
这是一个奇怪的问题,因为如果您参考“随机变量”和“独立”的正式定义(这在“统计”中似乎暗示了这一点),您会发现它们几乎没有共同点。
ub

@ttnphns,是的,我想我对“独立生成的观察结果”与“随机生成的”一词更加困惑。在采样中,我们经常听到(简单)随机采样,这让我感觉像是独立采样。我猜想我们是否真的想在描述采样方法时结合这两个特征,应该是:观察值的选择不相互依赖(=独立)并且选择观察值的概率已知(=随机)?
tiantianchen

1
如果我们从Wiki中检查独立性的定义:“在概率论中,如果一个事件的发生不影响另一个事件的概率,则两个事件是独立的,统计独立的或随机独立的。”,应基于两个观察值的依赖性它们是如何生成/选择的,而不是它们在数据中的外观。那么,在我上面提到的情况中,两个相同的观察仍然应该是独立的。
tiantianchen'8

2
请不要将任何Wikipedia条目开头的启发式解释与定义混淆。该定义在同一文章的 “定义”标题下给出。这是蒂姆在这里回答的内容。
ub

Answers:


35

我将尝试用非技术性的术语进行解释:随机变量描述了实验的结果;您无法预先知道确切的结果是什么,但是您掌握了一些信息:知道哪些结果是可能的,并且知道每个结果的可能性。

例如,如果您扔一个公平的硬币,那么您将事先不知道会得到正面还是反面,但是您知道这是可能的结果,并且您知道每个结果都有50%的发生机会。

为了解释独立性,您必须扔掉两个公平的硬币。投掷第一个硬币后,您知道第二次投掷头部的概率仍然是50%,而对于尾巴也是如此。如果第一次抛球对第二次抛球的概率没有影响,则两次抛球都是独立的。如果第一次抛球对第二次抛球的概率有影响,则它们是相关的。

当您将两个硬币粘合在一起时,一个依赖折腾的例子就是。


3
另一对因变量将是“是否有头”和“是否有头”。两者都是随机的,但彼此并不独立。
user253751 '16

3
@immibis或掷骰子,记下价值。然后再滚动一次,然后将值乘以记下的值。该值是随机的,但取决于第一卷。
克劳利

8

随机随机变量有关独立与概率独立有关。通过独立性,我们的意思是观察一个变量不会告诉我们有关另一个变量的任何信息,或者更正式地说,如果Y是两个随机变量,那么我们说它们是独立的,如果XY

pX,Y(x,y)=pX(x)pY(y)

此外

E(XY)=E(X)E(Y)

并且它们的协方差为零。随机变量取决于X,如果它可以被写为一个函数XYXX

Y=f(X)

因此,在这种情况下随机的,并依赖XYX

将过程称为“非独立”是非常误导的-与什么无关?我猜您的意思是,某些过程中存在一些独立且分布均匀的随机变量(在此处在此处检查)。“独立”在这里是指它们彼此独立。有些过程会产生因变量,例如X1,,Xk

Xi=Xi1+ε

其中是一些随机噪声。显然,在这种情况下,X i取决于X i - 1,但它也是随机的。εXiXi1


如果X是一个随机变量,是什么意思?我想你混淆房车和事件:两房车X和Y是独立的,如果事件P X [R P Ÿ 小号是独立于所有R,SP(X) P(Xr)P(Ys)
马修塔

那么任何两个连续随机变量都是独立的。
马修塔楼

@m_t_我真的不认为任何地方讨论的符号线索(见例如en.wikipedia.org/wiki/...
蒂姆


2
@tiantianchen的另一种方法:如果您有iid随机变量,则可以通过将各个pdf乘以构造似然函数,因为它们是独立的。
蒂姆

1

变量用于数学的所有领域。变量的独立性和随机性的定义单方面适用于所有形式的数学,而不仅仅是统计。

例如,二维欧几里得几何中的X轴和Y轴表示独立变量,但是(通常)不会随机分配它们的值。

两个给定的变量可以是随机的,也可以是彼此独立的(或彼此独立),或者两者都是,或都不是。统计趋向于关注随机性(更正确地说,是概率),并且两个变量是否独立可能对观察到的给定结果的概率有很多影响。

在学习统计数据时,您倾向于同时描述这两个属性(独立性和随机性),因为两者都非常重要,并且会影响当前问题的答案。但是,这些属性不是同义词,在数学的其他领域中,它们不一定一起出现。


谢谢。您能否进一步解释一下“两个变量是否独立可能对观察到的给定结果的概率有很多影响”。
tiantianchen'8

3
这是一种非统计性的答案,与问题中使用的答案不同,它的“独立性”含义不同。它还混淆的“可变的”两种意义:一个是数学一个和另一个是的统计定义随机变量(这绝对是一样的几何轴线变量)。
ub

1

独立的概念是相对的,而您可以自己随意。在您的示例中,您具有“两个独立的随机变量”,不需要讨论几个“随机抽样”。

假设您多次铸造完美的模具。结果是先验随机的。知道过去,你不能预测以下4.假设我从模具的另一侧生成的序列数:6 13 4。我得到的1 2 4 2 3 ...。它和第一个一样随机。您无法猜测3之后会发生什么。但是,这两个序列是完全相关的。6,5,3,5,461341,2,4,2,33

如果一个人平行地投掷两个骰子(它们之间没有相互作用),则它们各自的顺序将是随机且独立的。


1
考虑到OP的级别,这可能有点技术性,但是考虑到您的声明“您不能独立于(某物)(作为一个过程,一个序列)”,请考虑以下内容:任何等于常数c的随机变量X可能性为一,它独立于“一切”,包括自身。即,对于这样的X,X独立于X。您可以根据独立性的定义轻松地进行检查。
马克·L·斯通

@Mark L. Stone我将纠正这个虚假陈述。我一个人单独的意思是“本身”。在您的定义中,您可以说:是独立的,还是XX是独立的?XXX
洛朗·杜瓦尔

X独立于自身。即,X是独立X的
马克·劳伦斯斯通

0

当您有一对值时,第一个是随机生成的,而第二个则与第一个有任何依存关系。例如男人的身高和体重。它们之间有相关性。但是它们都是随机的。


Although this post uses the words "random" and "dependent," it doesn't define them or clearly distinguish them. Indeed, it seems to suggest that "random=dependent"!
whuber

0

The coin example is a great illustration of a random and independent variable, a good good way to think of a random but dependent variable would be the next card drawn from a seven deck shoe of playing cards, the -likelihood- of any specific numerical outcome changes depending on the cards previously dealt, but until only one value of card remains in the shoe, the value of the card to come next will remain random.


3
可能值得在这里用“概率”代替“可能性”一词,因为可能性在统计数据中有单独的技术定义
Silverfish

1
取决于其他事件的概率(通常是先前的事件,但有时基于对未来事件或同时发生的事件的了解-对此实际上没有时间方向)称为条件概率。“ 似然 ”一词用于指一种“反向概率”(或在连续情况下,是概率密度)-也就是说,可以根据模型参数来计算结果(例如,数据)的概率),但是如果我们反过来考虑,则根据您的数据,该参数的可能性。
银鱼

1
Unless you're calculating the likelihood of a parameter, it's best to avoid the word "likelihood" in statistics, even where in normal English one would use "likelihood" as a synonym for the probability of an event (e.g. "rolling ten sixes in a row in a game of dice has a very low likelihood" is fine for colloquial English, but isn't using the word correctly in a statistical sense). "Let π be a parameter denoting the probability that a biased die rolls a six; calculate the likelihood that π=1/6 given that ten rolls of the die were all sixes" is statistically correct but jargony
Silverfish

-1

David Bohm in his work Causality and Chance in Modern Physics (London: Routledge, 1957/1984) describes causality, chance, randomness, and independence:

“在自然界中,任何事物都不会保持不变。一切都处于变换,运动和变化的永恒状态。但是,我们发现,没有任何先验存在的事物,任何事物都不会简单地从虚无中涌现出来。绝对不会在以后产生任何东西的感觉.....一切都来自其他事物并产生其他事物。这个原理还不是自然界中因果关系存在的陈述。下一步是要注意的是,当我们研究在各种条件下发生的过程时,我们发现在变化和转型的所有复杂性中都存在着相互关系。 that remain effectively constant. .... At this point, however, we meet a new problem. For the necessity of a causal law is never absolute. Thus, we see that one must conceive of the law of nature as necessary only if one abstracts from contingencies, representing essentially independent factors which may exist outside the scope of things that can be treated by the laws under consideration, and which do not follow necessarily from anything that may be specified under the context of these laws. Such contingencies lead to chance." (pp.1-2)

"The tendency for contingencies lying outside a given context to fluctuate independently of happenings inside that context has demonstrated itself to be so widespread that one may enunciate it as a principle; namely, the principle of randomness. By randomness we mean just that this independence leads to fluctuation of these contingencies in a very complicated way over a wide range of possibliities, but in such a manner that statistical averages have a regular and approximately predictable behaviour." (p.22)


3
Your definition of "random" seems unusual. It appears to be intimately connected with concepts of "predictability" and "pattern"--but what exactly do those mean? For instance, if an experiment that potentially could yield any number between 0 and 1 were consistently observed to yield values of either 1/3 or 4/7, that would seem to be a "pattern" and--to the extent it differs from the original infinite set of possible values--is at least partially "predictable." Where you write "if you plot..." it seems you are claiming that no univariate variable can be random!
whuber

3
You seem to be discussing stochastic processes (in time) rather than randomness and random variables.
whuber

4
I believe part of the difficulty we are having in communicating is that you appear to be thinking of "independent" in the sense of an independent variable in regression. Although some elements of the question might suggest that, the phrases "two independent random variables" and "random sampling" indicate otherwise.
whuber

1
I cannot even tell what your understanding is, because your answer provides no definitions. I'm having to guess what you're trying to say from the examples and descriptions you give. They appear to differ from the senses of "random" and "independent" in the ways I have described in previous comments.
whuber

1
I'd add to @whuber comments that your definition mentioning random variables influencing each other may be misleading. "Influence" is a very strong term implicating some kind of causality etc. while the formal definition of independence does not require any causality or influence but it is simply about relations of joint vs individual probabilities.
Tim
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.