一些背景:
我有兴趣为错误学习(LWE)问题找到“鲜为人知”的下界(或硬度结果),以及诸如环上错误学习之类的概括。对于特定的定义等,这是Regev进行的一次不错的调查:http : //www.cims.nyu.edu/~regev/papers/lwesurvey.pdf
(R)LWE型假设的标准类型是通过(可能是量子)归约到(可能是理想)晶格上的最短向量问题。已知SVP的通常公式是NP难的,并且相信很难近似到小的多项式因数。(相关:很难将CVP近似到/ most-polynomial /因数内:http : //dl.acm.org/citation.cfm?id=1005180.1005182)我也听说它提到了(关于量子算法)将某些晶格问题(如SVP)近似为较小的多项式近似因子与非阿贝尔隐藏子组问题(由于其自身的原因而被认为很难)有关,尽管我从未见过明确的正式来源。
但是,我对来自学习理论的“噪声奇偶性”问题导致的硬度结果(任何类型)更感兴趣。这些可能是复杂度级别的硬度结果,具体的算法下限,样本复杂度界限,甚至是证明尺寸下限(例如,分辨率)。众所周知(也许很明显),LWE可以看作是“噪声奇偶性/学习奇偶性与噪声”(LPN)问题的推广,(从谷歌搜索中发现)似乎已用于降低编码理论和PAC等领域的硬度学习。
通过环顾四周,我仅发现(轻微次指数)LPN问题的上界,例如http://www.di.ens.fr/~lyubash/papers/parityproblem.pdf
题:
我知道LPN在学习社区中是最受信赖的。我的问题是:为什么?
是因为每个人都非常努力,但是还没有人找到好的算法吗?上面的斜体字样(或我遗漏的其他字词)是否存在已知的下界?
如果答案很明确,那么对已知内容和/或对调查/讲义的引用进行简要总结将是很好的。
如果未知数太多,那么“最新技术”的论文越多越好。:)(提前感谢!)