Questions tagged «pseudorandomness»

3
从提取器到伪随机生成器?
卢卡·特雷维森(Luca Trevisan)展示了实际上可以将多少种伪随机发生器构造为提取器构造: http://www.cs.berkeley.edu/~luca/pubs/extractor-full.pdf 有有意义的对话吗?即,抽取器的“自然”构造可以被视为伪随机发生器(PRG)构造吗? 提取器的构造似乎与PRG 上的分布相对应(这样,任何区分器都无法成功区分几乎所有特征)。是否有已知的应用程序?

2
显式平衡矩阵
是否有可能建立一个明确的用-矩阵那些使得每个子矩阵包含小于的呢?0 / 1N×NN×NN \times N 0/10/10/1 Ñ 0.499 × Ñ 0.499 Ñ 0.501N1.5N1.5N^{1.5}N0.499×N0.499N0.499×N0.499N^{0.499} \times N^{0.499}N0.501N0.501N^{0.501} 或者,可能可以为此类属性建立显式命中集。 可以很容易地看出,随机矩阵具有此特性,其概率指数接近。而且,膨胀机混合引理不足以得出该性质。111 我猜想愚蠢的组合矩形可以帮助伪随机生成器,但是它们是为均匀分布而设计的,我在这里基本上需要。B(N2,N−0.5)B(N2,N−0.5)B(N^2, N^{-0.5})

2
理论上是否在使用合理的伪随机发生器?
据我所知,实践中大多数伪随机数生成的实现都使用诸如线性移位反馈寄存器(LSFR)或这些“ Mersenne Twister”算法之类的方法。尽管它们通过了大量(启发式)统计检验,但是并没有理论上的保证,它们看起来对所有可有效计算的统计检验都是伪随机的。然而,从加密协议到科学计算再到银行业务,这些方法在各种应用中都被不加选择地使用。我感到有些令人担忧的是,我们几乎无法保证这些应用程序是否按预期工作(因为任何类型的分析都可能假定输入是真正的随机性)。 另一方面,复杂性理论和密码学提供了非常丰富的伪随机性理论,我们甚至拥有伪随机数生成器的候选构造,该构造会欺骗使用候选单向函数的任何有效统计测试。 我的问题是:这种理论是否已付诸实践?我希望对于密码学或科学计算等随机性的重要用途,使用理论上合理的PRG。 顺便说一句,对于使用LSFR作为随机性来源时,快速排序等流行算法的工作情况,我可以找到一些有限的分析,显然它们可以很好地工作。参见Karloff和Raghavan的“随机化算法和伪随机数”。

1
愚弄任意对称函数
如果| |,则说分布是ϵ -f愚弄一个函数f È X ∈ ù(˚F (X ))- ë X ∈ d(˚F (X ))| ≤ ε。据说如果它欺骗了该类中的每个函数,就欺骗了该类。 已知ϵ偏斜的空间使子集上的奇偶校验类变得愚蠢。(请参阅Alon-Goldreich-Hastad-PeraltaDD\mathcal{D}ϵϵ\epsilonfff|Ex∈U(f(x))−Ex∈D(f(x))|≤ϵ|Ex∈U(f(x))−Ex∈D(f(x))|≤ϵ|E_{x\in U}(f(x)) - E_{x\in \mathcal{D}}(f(x))| \leq \epsilonϵϵ\epsilon对于此类空间的一些不错的构造)。我要问的问题是将其推广到任意对称函数。 问题:假设我们在某个子集上采用任意对称函数的类,是否有愚弄该类的分布(在少量支持下)? 一些小发现: 愚弄精确的阈值就足够了(当且仅当x在S的索引中恰好有k个时,为1 )。任何分布ε -fools这些精确阈值将Ñ ε愚弄在所有对称函数Ñ位。(这是因为每个对称函数都可以写为这些确切阈值的实线性组合,其中组合中的系数为0或1。期望的线性然后给出我们想要的东西) 类似的论点也适用于一般阈值(Th S k)EThSk(x)EThkS(x)\text{ETh}^S_k(x)xxxkkkSSSϵϵ\epsilonnϵnϵn\epsilonnnnThSk(x)ThkS(x)\text{Th}^S_k(x)当且仅当在S的索引中至少有k个时为1xxxkkkSSS) 没有与支持分布的明确建设通过nO(logn)nO(log⁡n)n^{O(\log n)} Nisan的PRG for LOGSPACE。 任意 1-偏移的空间将无法正常工作。例如,如果S是所有x的集合,使得x中的个数为非零模3,则实际上对ϵ偏置很小的ϵ(来自a)ϵϵ\epsilonSSSxxxϵϵ\epsilonϵϵ\epsilon Arkadev Chattopadyay的结果)。但是很显然,这并不能欺骗MOD3功能。 一个有趣的子问题可能是:假设我们只想愚弄所有n个索引上的对称函数,我们有一个不错的空间吗?通过以上观察,我们只需要欺骗上的阈值函数,这只是n + 1个函数的族。因此,人们只能通过蛮力来选择分布。但是,还有更好的例子来说明每k个愚蠢Th [ n ] k的空间吗?nnnn+1n+1n+1Th[n]kThk[n]\text{Th}^{[n]}_kkkk

3
Nisan / Wigderson中的伪随机定义背后的动机是什么?
我正在阅读尼桑(Nisan)和威格森(Wigderson)的经典著作《硬度与随机性》。令,并将函数。他们定义了一个函数族在大小为每个电路中都是伪随机的B={0,1}B={0,1}B=\{0,1\}l:N→Nl:N→Nl\colon \mathbb{N} \to \mathbb{N}G={Gn:Bl(n)→Bn}G={Gn:Bl(n)→Bn}G = \{G_n : B^{l(n)} \to B^n\}nnn我们已经 (∗) |P(C(x)=1)−P(C(G(y))=1)|&lt;1/n(∗) |P(C(x)=1)−P(C(G(y))=1)|&lt;1/n(*) \ \ | P(C(x) = 1) - P(C(G(y))=1) | < 1/n (其中是统一随机变量)。x∈Bn,y∈Bl(n)x∈Bn,y∈Bl(n)x \in B^{n},y \in B^{l(n)} 我知道我将和视为随机变量,并且我想将和之间的距离作为随机变量进行比较。我的直觉是,电路被用作某种“测试”,以查看是否可以将弄清楚。我真正挣扎的是为什么条件是正确的条件。是否有人对如何定义这个定义有任何建议?xxxyyyxxxG(y)G(y)G(y)GGG(∗)(∗)(*)


1
确定性错误减少技术?
假设有使用位随机性的随机化(BPP)算法对于任何选定的,将其成功概率放大到自然方法是AAArrr1−δ1−δ1-\deltaδ&gt;0δ&gt;0\delta>0 独立运行+多数表决:独立运行次,并获得输出的多数表决。这需要位的随机性,并以因子消耗运行时间。AAAT=Θ(log(1/δ)T=Θ(log⁡(1/δ)T=\Theta(\log(1/\delta)rT=Θ(rlog(1/δ))rT=Θ(rlog⁡(1/δ))rT =\Theta(r\log(1/\delta))T=Θ(log(1/δ))T=Θ(log⁡(1/δ))T=\Theta(\log(1/\delta)) 成对独立运行+切比雪夫:运行 “成对-独立地”倍,并且与阈值比较这需要随机性的比特,并且打击了运行时间由因子决定。AAAT=Θ(1/δ)T=Θ(1/δ)T=\Theta(1/\delta)rT=Θ(r/δ)rT=Θ(r/δ)rT =\Theta(r/\delta)T=Θ(1/δ)T=Θ(1/δ)T=\Theta(1/\delta) Karp,Pippenger和Sipser [1] (显然,我无法亲自研究论文,它是二手书)提供了基于强大的常规扩展器的替代方法:本质上,请参见文档的节点扩展器作为随机种子。使用随机位选择扩展器的随机节点,然后2r2r2^rrrr 从那里开始进行长度为的短暂随机游走,然后在获得多数表决之前对与路径上的节点对应的种子运行这需要位的随机性,并且会以因素消耗运行时间。T=Θ(log(1/δ))T=Θ(log⁡(1/δ))T=\Theta(\log(1/\delta))AAATTTr+T=r+Θ(log(1/δ))r+T=r+Θ(log⁡(1/δ))r+T = r+\Theta(\log(1/\delta))T=Θ(log(1/δ))T=Θ(log⁡(1/δ))T=\Theta(\log(1/\delta)) 在进行多数表决之前,对当前节点的所有邻居(或更一般而言,当前节点距离内的所有节点)运行这需要位随机性,并且会以因子消耗运行时间,其中是度数(或距离邻域的。设置好参数,最终会花费在这里。AAAcccrrrT=dT=dT=dddddcdcd^ccccT=poly(1/δ)T=poly⁡(1/δ)T=\operatorname{poly}(1/\delta) 我对最后一个项目符号感兴趣,这与确定性错误减少相对应。[1]之后是否有任何改进,从而减少了对的依赖性?什么是当前的最佳实现-为其??(对于吗?对于吗?)TTTδδ\delta1/δγ1/δγ1/\delta^\gammaγ&gt;1γ&gt;1\gamma > 1γ&gt;0γ&gt;0\gamma > 0BPPBPP\textsf{BPP}RPRP\textsf{RP} 注意:我也对而不是。正如在[2]中介绍的那样,相关的结构不再是扩展器,而是分散器(例如,参见Ta-Shma的这些讲义,特别是表3)。我找不到确定性扩增的相应范围(不是比允许的多一个随机位),但是,(更重要的是)对于相关参数范围,最新的显式分散器构造也没有找到。RPRP\textsf{RP}BPPBPP\textsf{BPP} rrrr [1] Karp,R.,Pippenger,N.和Sipser,M.,1985年。时间随机权衡。在AMS关于概率计算复杂性的会议(第111卷)中。 [2] A. Cohen和A. Wigderson,1989年10月。分散器,确定性放大和弱随机源。在第30届计算机科学基础年度研讨会上(pp。14-19)。IEEE。

2
有限自动机的伪随机发生器
令为常数。我们如何证明可构造一个伪造d状态有限自动机的伪随机发生器?dddddd 在此,状态有限自动机具有d个节点,一个起始节点,代表接受状态的一组节点以及从每个节点出来的两个标记为0、1的有向边。它在读取输入时以自然的方式更改状态。给定一个ε,发现˚F :{ 0 ,1 } ķ → { 0 ,1 } Ñ使得对于每d -state有限自动机计算一些功能甲,ddddddϵϵ\epsilonf:{0,1}k→{0,1}nf:{0,1}k→{0,1}nf:\{0,1\}^{k}\to \{0,1\}^ndddAAA |Px∼Uk(A(f(x))=1)−Px∼Un(A(x)=1)|&lt;ϵ.|Px∼Uk(A(f(x))=1)−Px∼Un(A(x)=1)|&lt;ϵ.|\mathbb P_{x\sim U_{k}}(A(f(x))=1)-\mathbb P_{x\sim U_n}(A(x)=1)|< \epsilon. 在这里,表示k个变量的均匀分布,我们希望k尽可能小(例如log n)。我正在考虑d处于n的数量级,尽管我们也可以更普遍地问这个问题(例如,所需的位数是否会随n增加?)。UkUkU_kkkkkkklognlog⁡n\log ndddnnnnnn 一些背景 伪随机生成器的构造在去随机化中很重要,但是到目前为止,普遍问题(用于多项式时间算法的PRG)已经证明太难了。然而,用于有界空间计算的PRG已经取得了进展。例如,最近的这篇论文(http://homes.cs.washington.edu/~anuprao/pubs/spaceFeb27.pdf)对于常规的一次读取分支程序给出了大约的界限。常规一次读取分支程序的问题仍然存在(使用k = log n),因此我想知道这种简化的答案是否已知。(有限的自动机就像一个只读的分支程序,其中每一层都是相同的。)lognlogdlog⁡nlog⁡d\log n\log dk=lognk=log⁡nk=\log n

1
RP的真正随机性可以用Kolmogorov随机性替代吗?
有没有尝试表明Kolmogorov随机性足以满足RP要求?在这种情况下,是否始终会很好地定义语句“如果正确答案为是,那么它(概率图灵机)以概率……返回是”的概率?还是这种可能性只有上下限?还是仅存在某些概率图灵机,其概率将得到很好的定义(或者至少应下限大于1/2)? 这里的RP类是相对任意的,对于(伪)随机性比Kolmogorov随机性更弱的概念,也可以问这个问题。但是,Kolmogorov的随机性似乎是一个很好的起点。 理解“概率”一词将是试图证明Kolmogorov随机性可用于RP的尝试的一部分。但是,让我尝试描述一种可能的方法,以阐明其含义以及为什么我谈论上下限: 让是(柯尔莫哥洛夫随机)字符串。令为对应于RP语言的给定概率图灵机。润以作为源的随机比特倍,继续使用来自先前未消耗的比特一个接一个。甲甲小号Ñ 小号sss一个一个A一个一个Asssññnsss 对于,让和p _- ^ s:= \ liminf_ {n \ to \ infty} p_n ^ s。观察p _ + ^ s和p _- ^ s对于给定的字符串s定义良好,即使它不是随机的。但是人们可能会怀疑在情况s下p _ + ^ s = p _- ^ s是Kolmogorov随机的,还是两个任意Kolmogorov随机字符串s_1和s_2的p _- ^ {s_1} = p _- ^ {s_2}。或者是否存在p \ geq 1/2使得任何Kolmogorov随机字符串的p \ leq p _- …


1
确定性伪随机性可能比并行性强吗?
让类BPNC(和)是具有有限错误概率并可以访问随机源的对数深度并行算法(我不确定这是否具有不同的名称)。类似地定义类DBPNC,不同之处在于所有进程都可以随机访问算法启动时固定的随机位流。N C乙P P乙PP\mathsf{BPP}氮碳ñC\mathsf{NC} 换句话说,BPNC中的每个进程都可以访问不同的随机源,而DBPNC算法具有共享的完全随机计数器模式生成器。 我们是否知道BPNC = DBPNC?
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.