Questions tagged «big-picture»

大标签用于“问题的广泛,整体视图或观点”。


13
理论计算机科学中的复杂分析
实际分析在理论计算机科学中有许多应用程序,包括属性测试,通信复杂性,PAC学习和许多其他研究领域。但是,我无法想到TCS中依赖复杂分析的任何结果(在量子计算之外,模型中固有的是复数)。有没有人有使用复杂分析的经典TCS结果的示例?

3
我们可以量化量子算法中的“量子度”吗?
纠缠通常被认为是使量子算法变得更好的关键要素……量子,这可以追溯到贝尔州,贝尔州破坏了量子物理学作为一种隐藏状态概率模型的思想。在量子信息论中(根据我的较弱理解),纠缠也可以用作限制进行某些类型编码能力的具体资源。 但是从其他对话中(我最近坐在量子方法物理学家的博士学位委员会上),我发现纠缠很难量化,尤其是对于混合态量子态。具体地说,似乎很难说一个特定的量子态在其中具有X个纠缠单元(该学生的博士学位论文旨在尝试量化通过众所周知的门操作“加”的纠缠量)。实际上,最近的博士学位论文提出,被称为“量子不协调”的概念也可能与量化算法或状态的“量子”有关(需要)。 如果我们想将纠缠视为随机性之类的资源,那么公平地问一下如何衡量算法“需要”多少纠缠。我不是在谈论完全的反量化,而只是一种衡量数量的方法。 那么,目前是否存在任何公认的测量状态或算子或算法的“量子”的方法?

2
创建Lambda演算的最初意图是什么?
我已经读过,最初Church提出微积分是他的逻辑假设论文的一部分(这是一本密集的读物)。但是克莱因证明了他的“系统”前后矛盾,之后,丘奇为他关于“有效可计算性”的工作提取了相关的东西,而放弃了他先前在逻辑上的工作。λλ\lambda 所以我的理解是,在 -系统和它的符号了形式的一部分东西做的逻辑。教会最初试图实现什么目的,以至于他后来又分手了?创建λ微积分的最初原因是什么?λλ\lambdaλλ\lambda

3
向科学家证明渐进最坏情况分析
我一直在努力将计算复杂性的一些结果引入理论生物学,尤其是进化与生态学,目的是使生物学家感兴趣/有用。我面临的最大困难之一是证明渐近最坏情况下限分析的有用性。有没有文章长度的参考文献可以证明科学界的下限和渐近最坏情况分析的合理性? 我确实在寻找我可以在写作中参考的良好参考,而不必在有限的可用空间内论证(因为这不是本文的重点)。我也知道的其他种类和范式分析的,所以我不求,说最坏的情况是“最好的”分析的参考(因为有设置时,它非常不),但它不是完全没用:它仍然可以为我们提供理论上对实际算法在实际输入上的行为的有用见解。文章针对普通科学家也很重要 而不仅仅是工程师,数学家或计算机科学家。 例如,蒂姆·拉夫加登(Tim Roughgarden)向经济学家介绍复杂性理论的论文正朝着我想要的方向走。但是,只有第1部分和第2部分是相关的(其余的内容太过于具体于经济学),并且比大多数科学家[1],预定的受众对定理-定理-反思想的思考更为满意。 细节 在进化中的自适应动力学的背景下,我遇到了理论生物学家提出的两种特定类型的抵抗: [A]“为什么我应该关心任意行为?我已经知道该基因组具有碱基对(或者可能是基因)而已。n = 3 * 10 9 n = 2 * 10 4ñnnn = 3 * 109n=3∗109n = 3*10^9n = 2 * 104n=2∗104n = 2*10^4 使用“我们可以想象等待秒,而不是 ” 这样的论点,这相对容易解决。但是,一个更复杂的论点可能会说:“当然,您说您只关心一个特定的,但是您的理论从未使用过这个事实,他们只是使用了一个很大但有限的事实,而我们正在研究的是您的理论渐近分析”。2 10 9 n10910910^9210921092^{10^9}ñnn [B]“但是您仅通过使用这些小工具建立特定的景观就表明这很难。为什么我要关心这个而不是平均值?” 这是一个较难解决的批评,因为人们在该领域中通常使用的许多工具来自统计物理学,在统计学中通常可以安全地假设一个统一的(或其他特定的简单)分布。但是生物学是“有历史的物理学”,几乎所有事物都不处于平衡或“典型”状态,经验知识不足证明关于投入分配的假设是合理的。换句话说,我想要一个类似于软件工程中用于均布平均情况分析的论点:“我们对算法进行建模,我们无法构建关于用户将如何与算法交互或他们的分布如何的合理模型。的投入是;那是给心理学家或最终用户的,而不是我们的。” 除非在这种情况下,否则科学就不会处于与“心理学家或最终用户”同等的地位,以找出潜在的分布(或者甚至是有意义的)。 注意事项及相关问题 该链接讨论了认知科学,但是在生物学上的思维方式是相似的。如果您浏览《进化论》或《理论生物学杂志》,则很少会看到定理-证明定理,当您这样做时,通常只是一种计算,而不是诸如存在证明或复杂构造之类的东西。 算法复杂度分析的范例 除了最坏情况,平均情况等之外,还有其他类型的运行时间分析吗? 通过算法的视角看生态与进化 为什么经济学家应该关心计算复杂性

1
计算中的能源考虑
为了检验我的理解,我想分享一些关于计算能量需求的想法。这是我先前问题的跟进,可能与Vinay 有关保护法的问题有关。 从热力学的角度来看,对我而言,可以认为在某种程度上可以将计算视为类似于沿水平线移动砝码:唯一的能量损失是由于摩擦力造成的,原则上可以是摩擦力,任意缩小。 在没有耗散力的理想设置(可逆计算机的机械模拟)中,根本不需要任何能量消耗。您仍然必须提供能量以加速重量,但减速时可以将其全部恢复。可以通过投入足够的能量来任意减小运行时间(更准确地说,如果考虑到相对性,则运行时间从下方以,其中是距离)。dd/ cd/cd/cddd 类似地,一台可逆计算机不需要能源消耗,但是在计算结束时就可以收回能源投资,并且可以通过投入足够的能源以达到相对论的极限,来任意缩短运行时间(如http:// arxiv中所述)。赛斯·劳埃德(org / abs / quant-ph / 9908043)。 但是,存在与计算机构造相关的能源成本。通常,这将取决于实现细节,但是我猜想我们可以为其设置一个下限: 假设我们的计算机有三个(经典或量子)寄存器:Input,Output和Ancilla。 的输入和输出寄存器可以读出和由用户写入,而附属物寄存器是不可访问的。 在每次计算开始时,Ancilla寄存器均以固定(例如全零)状态开始,到计算结束,它将返回到相同的固定状态。因此,除非有外部噪音,否则在构建计算机时,Ancilla状态仅需要初始化一次。 因此,根据Landauer原理,我推测用位(或qubits)的Ancilla建造一台可逆计算机至少需要焦耳能量,其中是玻尔兹曼常数,是环境温度系统正在构建中。n k B T ln 2 k B Tñnnñ ķ乙Ťln2nkBTln⁡2n k_B T \ln2ķ乙kBk_BŤTT 问题: 以上考虑是否正确? 如果将可逆计算机安装在温度为的环境中,然后将其移动到温度为的环境中,将会发生什么情况?我想真正的可逆计算机无法真正冷却。原则上,如果我理解正确的话,它甚至不应具有正确定义的温度。T ' &lt; TŤTTT′&lt;TT′&lt;TT' < T 如果我们考虑使用不可逆的计算机,会发生什么?一台不可逆的计算机通常可以使用较少的ancilla位来执行相同的计算,而且,由于它与周围环境发生了热相互作用,因此我们可以安排其初始Ancilla状态是基态的一部分,因此我们可以通过简单地允许它来对其进行初始化冷却,不提供任何能量。当然,由于不可逆,我们必须为每次计算支付能源成本。 (与Kurt对Vinay问题的回答有关) 在机械类比中,我仅考虑沿水平线的运动。如果还沿垂直方向提起重物,则将需要额外的能量消耗(或者,如果减轻重物,则将回收能量)。是否有这种垂直运动的计算模拟,并且该过程是否消耗或产生了一定数量的量? 更新: 在我看来,拆卸计算机时,原则上可以完全收回构建计算机所需的能源成本(我认为)。 因此,对于每次计算,您都可以构建一台专用可逆计算机,该计算机具有所需的辅助位,添加更多能量以使其运转,等待计算完成,然后拆除计算机以收回所有已投入的资金。能源。因此,你可以定义能源投资的计算为: ,其中是实际的空间复杂度(数附属物位),是实际的时间复杂度(数量的时间步长)和是假设总运行时间恒定,则每个时间步的能量与速度折衷项。n s n t snskBTln2+ntsnskBTln⁡2+ntsn_s k_B …

5
的不可证明性的含义
我当时在读“ P对NP是否正式独立? ”,但我对此感到困惑。 在复杂度理论中,人们普遍认为。我的问题是关于这是否不可证明(在)。(假设我们仅发现独立于但是没有进一步的信息证明。) Z F C P ≠ N P Z F CP ≠ N PP≠NP\mathsf{P} \neq \mathsf{NP}žFCZFCZFCP ≠ N PP≠NP\mathsf{P} \neq \mathsf{NP}žFCZFCZFC 此声明的含义是什么?进一步来说, 硬度 假设捕获了有效的算法(Cobham–Edmonds论文)和,我们证明了结果暗示它们是超出了我们高效算法的当前范围。如果我们证明了分离,表示没有多项式时间算法。但是,如果分隔无法证明,则结果意味着什么?这些结果会怎样?PP\mathsf{P}Ñ P - ħ 一个[R d Ñ Ë 小号小号ñ P - ħ 一个[R d Ñ Ë 小号小号ñ P - ħ 一个[R d Ñ Ë …

5
近似算法的理论应用
最近,我开始研究NP难题的近似算法,并且想知道研究它们的理论原因。(这个问题并不意味着发炎-我只是好奇)。 逼近算法的研究产生了一些真正美丽的理论-PCP定理与逼近硬度之间的联系,UGC猜想,Goeman-Williamson逼近算法等。 我想知道关于旅行商,非对称旅行商和其他变体,机制设计中的各种问题(例如组合拍卖)等问题的近似算法的研究意义。这样的近似算法在理论的其他部分是否有用?过去还是纯粹出于自己的目的而学习? 注意:我没有问过任何实际应用,因为据我所知,在现实世界中,应用的大多是启发式方法,而不是近似算法,并且通过研究针对该算法的近似算法获得的任何见识很少会启发该启发式方法。问题。

3
并行计算的局限性
从广义上讲,我对P中并行化算法的了解感到好奇。我找到了以下有关该主题的维基百科文章: http://en.wikipedia.org/wiki/NC_%28complexity%29 本文包含以下句子: 是否NC = P尚不清楚,但是大多数研究人员怀疑这是错误的,这意味着可能存在一些棘手的问题,这些问题“固有地是顺序的”,并且不能通过使用并行性显着加速 听起来合理吗?是否有已知情况无法使用并行处理加快P中的问题?

4
沟通的复杂性...等级?
讨论内容: 我最近一直在花一些个人时间来学习通讯复杂性方面的各种知识。例如,我重新熟悉了Arora / Barak中的相关章节,开始阅读一些论文,并由Kushilevitz / Nisan订购了该书。直观地讲,我想将通信复杂度与计算复杂度进行对比。特别是,我对以下事实感到震惊:计算复杂性已发展成为将计算问题放入复杂性类的丰富理论,其中某些问题(至少从一个角度而言)可以反过来针对(例如,至少从一个角度来看)完整问题进行设想。每个给定的班级。例如,当解释NPNPNP 对于第一次接触某人的人,很难避免与SAT或其他一些NP完全问题进行比较。 相比之下,我从未听说过通信复杂性类的类似概念。我知道许多关于“定理完成”的问题的例子。举例来说,作为一个总体框架,作者可以描述给定的通信问题,然后证明了相关定理牛逼持有我˚F ˚F通信问题可以得到解决X或更少的位(对于某些X依赖于特定的定理/问题对)。当时在文献中使用的术语是P对T是“完整的” 。PPPTTTiffiffiffXXXXXXPPPTTT 此外,在Arora / Barak通信复杂性一章草案中有一条诱人的线(似乎已在最终印刷版中删除/调整)指出:“通常,人们可以考虑类似于,c o N P的通信协议。,P ħ等。” 但是,我注意到两个重要的遗漏:NPNPNPcoNPcoNPcoNPPHPHPH “类比”概念似乎是一种计算通信复杂度的方法,该通信复杂度是通过访问不同类型的资源来解决给定协议的,但是仅在定义适当的通信复杂度类别时就停止了... 从绝大多数结果/定理/等的意义上讲,大多数通信复杂性似乎都相对较低。围绕较小的,特定的,多项式大小的值。这有点令人困惑,为什么说对于计算很有趣,但是类似的概念对于通信却似乎不太有趣。(当然,我可能只是因为不了解“高级”通信复杂性概念而感到过失。) NEXPNEXPNEXP 问题: 通信复杂度是否与计算复杂度类有类似的概念? 和: 如果是这样,它与复杂性类的“标准”概念相比如何?(例如,“通信复杂性类”是否存在自然的局限性,从而导致它们本质上无法满足所有计算复杂性类的需求?)如果不是,“大局面”的原因是,类对于计算复杂性是一种有趣的形式主义,但并非如此沟通复杂吗?


1
密码学是否具有固有的热力学成本?
可逆计算是仅允许热力学可逆操作的计算模型。根据Landauer的原理,该原理指出,擦除一点信息会释放焦耳热,这排除了不是一对一的转换函数(例如,布尔AND和OR运算符)。众所周知,量子计算本质上是可逆的,因为量子计算中允许的运算由unit矩阵表示。ķ Ťln(2 )kTln⁡(2)kT \ln(2) 这个问题是关于密码学的。非正式地,“可逆性”的概念似乎对密码学的基本目标是一种厌恶,因此提出了一个问题:“密码学是否具有固有的热力学成本?” 我相信这是一个与“可以用量子完成一切吗?”不同的问题。 Preskill博士在演讲稿中指出:“有一种在可逆计算机上模拟不可逆计算的通用策略。每个不可逆门都可以由Toffoli门通过固定输入并忽略输出来模拟。我们累积并保存所有'垃圾' '输出反转计算步骤所需的位。” 这表明不可逆操作的这些可逆量子模拟需要输入以及一些“临时”空间。然后,该操作生成输出以及一些“脏”暂存位。这些操作相对于输出加上垃圾位都是可逆的,但是在某些时候,垃圾位被“扔掉了”,不再进一步考虑。 由于加密技术依赖于陷门单向功能的存在,因此该问题的另一种说法可能是:“是否有任何陷门单向功能可以仅使用可逆逻辑操作来实现,而没有额外的暂存空间?” 如果是这样,是否还可以仅使用可逆操作(并且没有暂存空间)来计算任意陷门单向功能?

4
语义如何处理副作用?
在Anthony Aaby的“ 语义学编程语言简介”部分中,他做了以下观察: 编程语言的语义方面的许多工作是由尝试构建和理解命令式程序(带有赋值命令的程序)时遇到的问题所激发的。由于赋值命令会将值重新分配给变量,因此赋值可能在程序的远处产生意外的影响。 这让我印象深刻,承认允许副作用会激发语义工作的大部分。 编程语言中副作用的存在如何影响将程序映射到计算模型的能力?是否有管理状态的方法可以改善此过程,同时仍然允许副作用?



By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.