Questions tagged «randomness»

随机性是事件缺乏模式或可预测性。随机性通常用概率分布来建模,但是也可以通过确定性过程来生成。

3
对数转换的预测变量和/或响应的解释
我想知道是否仅对因变量(无论是因变量还是自变量)还是仅对自变量进行了对数转换,在解释上是否有所不同。 考虑以下情况 log(DV) = Intercept + B1*IV + Error 我可以将IV解释为百分比增长,但是当我拥有 log(DV) = Intercept + B1*log(IV) + Error 或当我有 DV = Intercept + B1*log(IV) + Error ?
46 regression  data-transformation  interpretation  regression-coefficients  logarithm  r  dataset  stata  hypothesis-testing  contingency-tables  hypothesis-testing  statistical-significance  standard-deviation  unbiased-estimator  t-distribution  r  functional-data-analysis  maximum-likelihood  bootstrap  regression  change-point  regression  sas  hypothesis-testing  bayesian  randomness  predictive-models  nonparametric  terminology  parametric  correlation  effect-size  loess  mean  pdf  quantile-function  bioinformatics  regression  terminology  r-squared  pdf  maximum  multivariate-analysis  references  data-visualization  r  pca  r  mixed-model  lme4-nlme  distributions  probability  bayesian  prior  anova  chi-squared  binomial  generalized-linear-model  anova  repeated-measures  t-test  post-hoc  clustering  variance  probability  hypothesis-testing  references  binomial  profile-likelihood  self-study  excel  data-transformation  skewness  distributions  statistical-significance  econometrics  spatial  r  regression  anova  spss  linear-model 


3
的数字在统计上是否随机?
假设您遵循以下顺序: 7,9,0,5,5,5,4,8,0,6,9,5,3,8,7,8,5,4,4,0,6,6,4,4,5,3, 3,7,5,9,8,1,8,6,2,8,4,6,4,9,9,9,0,5,2,2,2,0,4,5,2,8。 .. 您将应用哪些统计检验来确定这是否是真正随机的?仅供参考,这些是π的第个数字。因此,π的数字是否在统计上是随机的?这说明常数π了吗?ññnππ\piππ\piππ\pi



5
这种“天真”的改组算法有什么问题?
这是有关随机随机排列数组的Stackoverflow 问题的后续内容。 已经建立了一些算法(例如Knuth-Fisher-Yates Shuffle),人们应该使用它们来对数组进行混洗,而不是依赖于“天真的”临时实现。 我现在有兴趣证明(或证明)我的幼稚算法已损坏(例如:不会以相等的概率生成所有可能的排列)。 这是算法: 循环几次(应该执行数组的长度),然后在每次迭代中获取两个随机数组索引,然后在其中交换两个元素。 显然,这需要比KFY(两倍多)更多的随机数,但是除此之外,它还能正常工作吗?合适的迭代次数是多少(“数组长度”是否足够)?


5
确定数据是否随机丢失的统计方法
我有大量的特征向量,可以用来解决二进制分类问题(在Python中使用scikit learning)。在开始考虑归因之前,我有兴趣尝试从数据的其余部分确定丢失的数据是“随机丢失”还是不是随机丢失。 解决这个问题的明智方法是什么? 事实证明,更好的问题是询问数据是否“完全随机丢失”。什么是明智的做法?

2
随机走动
考虑以下条件下从0开始的整数随机游动: 第一步是具有相等概率的正负1。 以后的每一步都是:60%可能与上一步相同,40%可能相反 这会产生什么样的分布? 我知道非动量随机游走会产生正态分布。动量会改变方差,还是完全改变分布的性质? 我正在寻找一个通用的答案,所以在上面分别说60%和40%,我的意思是p和1-p

2
说一个事件“最终发生”是什么意思?
考虑初始状态为的整数的一维随机游动:žZ\mathbb{Z} X ∈ žx∈Zx\in\mathbb{Z} 小号Ñ = X + Ñ Σ我= 1 ξ 我Sn=x+∑i=1nξi\begin{equation} S_n=x+\sum^n_{i=1}\xi_i \end{equation} 其中增量是IID,使得。ξ 我ξi\xi_i P { ξ 我 = 1 } = P { ξ 我 = - 1 } = 12P{ξi=1}=P{ξi=−1}=12P\{\xi_i=1\}=P\{\xi_i=-1\}=\frac{1}{2} 可以证明(1) P x { S n 最终达到+1 } = 1Px{Sn reaches +1 eventually}=1\begin{equation} P^x{\{S_n \text{ …

1
低差异序列中的加扰和相关(Halton / Sobol)
我目前正在一个项目中,在其中使用低差异/准随机点集(例如Halton和Sobol点集)生成随机值。这些本质上是维向量,它们模仿d维均匀(0,1)变量,但分布较好。从理论上讲,它们应该有助于减少项目另一部分中我的估算值的差异。dddddd 不幸的是,我一直在与他们合作时遇到问题,关于它们的许多文献都很密集。因此,我希望从有经验的人那里获得一些见识,或者至少想出一种凭经验评估发生了什么的方法: 如果您曾与他们合作: 到底是什么?它对生成的点流有什么影响?特别是,当生成的点的尺寸增加时,会产生影响吗? 为什么如果我通过MatousekAffineOwen加扰生成两个Sobol点流,则会得到两个不同的点流。当我对Halton点使用反基数加扰时,为什么不是这种情况?这些点集是否还存在其他加扰方法-如果是,是否有MATLAB实现? 如果您尚未与他们合作: 假设我有个假设为随机数的序列S 1,S 2,... ,S n,那么我应该使用哪种类型的统计数据来表明它们之间没有关联?我需要证明什么n才是统计上有意义的?另外,我怎么会做同样的事情,如果我有ň序列小号1,s ^ 2,... ,小号ñ的d维随机[ 0 ,1 ]的载体?nnnS1,S2,…,SnS1,S2,…,SnS_1, S_2, \ldots,S_nnnnnnnS1,S2,…,SnS1,S2,…,SnS_1, S_2, \ldots,S_nddd[0,1][0,1][0,1] 红衣主教回答的后续问题 从理论上讲,我们可以将任何加扰方法与任何低差异序列配对吗?MATLAB只允许我对Halton序列应用反基数加扰,并且想知道这仅仅是实现问题还是兼容性问题。 我正在寻找一种方法,使我可以生成彼此不相关的两个(t,m,s)网。MatouseAffineOwen可以允许我这样做吗?如果我使用确定性加扰算法并简单地决定选择每个以k为质数的'kth'值,该怎么办?

1
微分熵
高斯RV的微分熵是。这取决于标准偏差σ。log2(σ2πe−−−√)log2⁡(σ2πe)\log_2(\sigma \sqrt{2\pi e})σσ\sigma 如果我们对随机变量进行归一化,使其具有单位方差,则其微分熵下降。对我来说,这是违反直觉的,因为与熵的减少相比,归一化常数的Kolmogorov复杂度应该很小。可以简单地设计一种编码器解码器,该编码器解码器将归一化常数除以/乘以恢复由该随机变量生成的任何数据集。 我的理解可能不正确。你能指出我的缺点吗?

3
为什么几个(如果不是全部)参数假设检验假设为随机抽样?
像Z,t和其他几种测试都假定数据基于随机采样。为什么? 假设我正在做实验研究,我在乎内部有效性而不是外部有效性。因此,如果我的样本可能有点偏见,那很好,因为我已经接受了不推断整个人群的假设的结论。并且分组仍将是随机的,即,为了方便起见,我将选择样本参与者,但我将它们随机分配给不同的组。 为什么我不能忽略这个假设?

2
扔硬币是将一组随机分为两组的一种公平方法吗?
因此,我自己和叔叔都在争论一次硬币翻转是否真的是随机的。我认为这不是因为实际上硬币投掷者总是会操纵硬币,所以结果不是50/50,因此,作为在临床试验中分配组的随机化技术不是一个好的选择。但是他认为,抛硬币的微小缺陷是造成随机性的原因。因此,他然后假定了一种机器,该机器将永远能够抛弃一个公平的硬币,并使它落在头上,说实话,我只需要有人为我解决这个论点。扔硬币是将一组随机分为两组的一种公平方法吗?

2
这会给随机数带来偏差吗?
假设一个数据文件随机生成80+百万个1和0。 从这个文件中,我们想创建一个随机十进制整数的列表。 这是进行此转换的计划。 将8000万个数字分为4个二进制数字的分组。 将每个4位二进制数转换为十进制。 丢弃所有大于9的十进制值。 这将导致从0-9的随机整数字符串 这里是关注点。包含与值10到15对应的4个二进制数字的6个分组的24个二进制数字包含17个1和7个0。这种不平衡会以任何方式影响偶数与奇数整数的分布,还是损害最终的十进制数字字符串的随机性? 更新:从发布的答案来看,上面列举的方法似乎是正确的。我同意这个结论。但是,我仍然不明白为什么从二进制字符串中删除比零多两倍的数字不会使结果偏向于更少的奇数。我寻求解释。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.