可以推测,随机性不会扩展多项式时间算法的功效,也就是说,可以假设成立。另一方面,随机性似乎对多项式时间减少有完全不同的影响。通过飒爽瓦齐拉尼的公知结果,小号甲Ť降低到û 小号甲Ť经由随机多项式时间减少。减少可能不会被随机化,因为它将产生N P = U P,这被认为是不可能的。
我想知道,造成这种不对称情况的原因是什么:去随机化在概率多项式时间算法中很有可能出现,但在概率多项式时间减少中却没有呢?
可以推测,随机性不会扩展多项式时间算法的功效,也就是说,可以假设成立。另一方面,随机性似乎对多项式时间减少有完全不同的影响。通过飒爽瓦齐拉尼的公知结果,小号甲Ť降低到û 小号甲Ť经由随机多项式时间减少。减少可能不会被随机化,因为它将产生N P = U P,这被认为是不可能的。
我想知道,造成这种不对称情况的原因是什么:去随机化在概率多项式时间算法中很有可能出现,但在概率多项式时间减少中却没有呢?
Answers:
首先,让我评论一下Valiant-Vazirani减少的具体情况。我希望这将有助于澄清总体情况。
可以多种方式查看/定义Valiant-Vazirani减少量。这种减少是“尝试”将可满足的布尔公式映射到唯一可满足的F ',而将不满足的F映射到不可满足的F '。所有输出公式始终都是通过进一步限制F获得的,因此始终会保留不满足项。该还原可以被定义既作为输出单个˚F ',或者作为输出的列表˚F ' 1,... ,˚F ' 吨。在后一种情况下,在情况下“成功” ˚F ∈被定义为具有至少一个唯一可满足 ˚F ' 我在列表中。分别将这两个变量称为“单例减少”和“列表减少”(这不是标准术语)。
要注意的第一点是,单例减少的成功概率非常小,即,其中n是变量数。本文探讨了提高成功几率的困难
“ Valiant-Vazirani的隔离概率是否可以提高?” 由Dell等人撰写。
http://eccc.hpi-web.de/report/2011/151/#revision1
在列表约简中,使用poly (n )大小的列表可以使成功概率更大,例如。(例如,可以简单地多次重复进行单例减少。)
现在,我们应该能够直接对仅具有成功概率的约简进行非随机化处理,这一点也不明显或直观。确实,硬度与随机性的结果都没有给出在这种情况下我们可以这样做的假设。列表还原可以去随机化(列表稍大一些)更为合理。请注意,尽管这并不意味着N P = U P:我们的公式输出列表可能包含许多唯一可满足的公式,也许有些具有许多令人满意的赋值,并且在这样的条件下尝试定义唯一接受的计算似乎无望。清单。
即使我们能够以某种方式给列表还原,其中可满足总是引起列表˚F ' 1,... ,˚F ' 牛逼,其中大部分的的˚F ' Ĵ的是唯一满足的,还有就是把它转换成没有明确的方法确定性的单例减少以进行隔离。真正的根本困难是,我们不知道什么“为唯一,可满足公式大致占多数的操作”,也就是减少了[R (˚F ' 1,... ,˚F ' 牛逼)其输出是唯一可满足如果大多数的是唯一满足的,不可满足大多数˚F ' Ĵ的是不可满足的。这似乎也是一种普遍现象:与决策算法相比,归约输出的对象更加复杂,并且这些对象的属性更难检查,因此很难将许多这些对象组合成一个继承多数对象某些属性的对象。
对于勇敢,瓦齐拉尼情况下,它甚至没有可能似乎在合理的去随机假设,我们就能够获得,也就是要减少确定性满足的公式来满足的公式与≤聚(ñ )解决方案。直观上,这是基于这样的事实,即隔离过程甚至不知道给出的公式F的解集的粗略大小。
在甲骨文世界中,很容易举一些例子,其中随机性给我们带来了更多的力量。考虑例如找到平衡的布尔函数的零的问题。随机算法通过使用查询以恒定的成功概率来实现,而任何确定性算法至少需要n / 2个查询。
在另一种情况下,怀疑随机化会有所帮助。假设我们要在拟阵约束上最大化单调子模函数。有两种不同的算法可以给出近似值,这在该模型中通过Vondrák的结果是最佳的。这两种算法都需要计算如下形式的函数ë X 〜X ˚F (X ),其中X是具有指数支持的发行版。精确计算此函数的成本太高,但是可以通过采样进行近似,结果是一个随机算法。与此相反,最有名的确定性算法的贪婪算法,给人以近似。
在无约束子模最大化中也会发生类似情况(此处函数不一定是单调的)。最近的突破算法给出一个最佳的近似,但其确定性的版本仅提供了1 / 3的近似。在这里,随机化要么以与单调情况完全相同的方式体现出来,要么(在算法的不同版本中)通过沿此方式做出一些随机选择来体现出来。
一后者纸猜想的作者的那是最好的,确定性算法可以实现的,我们可以类似猜想1 / 2是可以在前面的问题而实现的最好的。如果这些猜想是正确的,那么这是非常自然的情况,在这种情况下,随机证明是有帮助的。
最近,Dobzinski和Vondrák展示了如何将值oracle下界(针对随机算法)转换为硬度结果,其条件是NP与RP不同(关键要素是列表解码)。我们应该提到的是,转换依赖于用于证明预言下界的特定方法。确定性值的下限值也可以转化为硬度结果,这的确是正确的。
对您来说似乎很奇怪的一个原因,就是我们认为从到U P的随机化归约比从B P P到P的归一化归因有更大的(或推测的)力量,是因为您可能是试图将随机性视为具有强大功能(或不具有强大功能)的东西,而与添加的“机器”无关(如果我们将这些复杂性类称为机器模型产生的类)。
但是,这些降低不同功率的方法仍然存在。实际上,诸如随机性之类的计算资源不一定具有固定量的计算能力,其是“重要的”或“不重要的”。
我们可能会考虑任何复杂类,这是低的本身-例如,,P,乙P P,乙Q P,⊕ P或P 小号P 一Ç é -要经得起各种各样的机器模型,其中机器始终具有良好定义的状态,您可以在任何时候询问有关该状态的信息,同时还可以使计算继续进行到超出您所提出的问题的范围:本质上,机器可以将一种算法模拟为以下子例程:另一个。执行计算的机器可能不是特别现实如果我们将自己限制在资源的实际约束上(例如, 物理上可实现的并且能够针对感兴趣的问题在低阶多项式时间内生成答案),但与诸如类的类不同,我们不知道不确定性机器如何产生N P中另一个问题的答案,并使用(迭代的)合取和析取的真值表归约法以外的任何方式使用该答案-想象这样的类是由具有定义好的状态的机器体现的,我们可以查询不会导致我们严重误入歧途。
如果我们采取这一立场,我们可以问一下,如果我们为这些计算模型提供额外的便利,例如随机性或不确定性,会发生什么情况。(这些额外的功能不一定保留机器模型可解释的属性,尤其是在不确定性的情况下,但是它们确实会产生“新”类。)如果此额外的功能使模型具有更大的功能,则会产生对于C类,这实际上等效于说使用该工具从C减少到M,例如 在随机的情况下是随机减少。
我之所以用低级的类来描述这一点,是因为如果我们认真地考虑它们是“另一个世界中可能的计算模型”,那么您关于随机化约简的问题就相当于一个事实,即随机性极大地增强了一些模型的能力,但没有增强。
在广场随机削减到ü P,我们可以观察到有来自所有的随机降低P ^ h到类乙P ·&⊕ P -如果添加有界误差随机性时获得⊕ P -由户田定理。然后您的问题可以提出:为什么会发生这种情况?为什么有些机器会从随机性中获得这么多的收益,而另一些机器却却从中获得很少的收益?在的情况下,P ħ ⊆ 乙P ·&⊕ P,它好像模2在非确定性的定义entailed(基本上量词模2计数)催化在有界错误entailed随机性(本质上是一个计数量词具有许间隙)给我们生存的和普遍量词的整个无界层次结构的等同物。但是,这并不意味着我们假设 ⊕ P本身大约为强大的全多项式层次,不是吗?有限误差随机性和模2计数资源都没有被认为具有如此强大的功能。我们观察到的是,这两个量词合起来是如此强大。
还有一个问题是,与不确定性相比,我们是否真的可以说随机性在绝对意义上是弱的:如果随机性如此弱,并且如果我们如此确信,为什么我们只能约束B P p⊆ Σ p 2 ∩ Δ p 2在多项式层次,使用2个级别非决定论的,更何况一个?但这可能只是一个结果,尽管我们怀疑添加到简单多项式时间计算中的随机性不能提供太多功效,但我们不知道如何仅使用少量涉及的不确定性来模拟该额外功效在N和 Ç Ò Ñ P。(当然,很难证明任何在复杂性理论上不平凡的事物;但这再次说明,这些不同种类的资源很难大规模地进行比较!)
没有强有力的理由,我可以给防守为什么会这样的情况下,除了观察到,到目前为止,它仅仅是如此; 而且,如果你认为不垮,是从不同的⊕ P,而乙P P ≈ P,那么你应该考虑的是设施,如随机性和确定性可以有权力这是不容易比得上一个可能性另一个可以协同工作或相互促进,以提供任何人都无法独自拥有的计算能力。B P P = P的假设不是说“随机性没有力量”,而是仅凭随机性(或仅由多项式时间计算来补充并提供给确定性计算模型)是不强大的。但这并不意味着随机性不存在任何功效,而其他计算资源可能会催化这种功效。