学习(签名)错误


9

Background_

在2005年,Regev [1]引入了带错误学习(LWE)问题,这是带错误学习奇偶性问题的概括。对于某些参数选择,此问题的难度假设现在为基于晶格密码学领域中许多后量子密码系统的安全证明奠定了基础。LWE的“规范”版本如下所述。

预备赛:

令为实数模1的加法组,即取。为正整数和,一个“秘密”矢量,概率分布上,让是对分布通过选择获得的均匀地在随机,画一个误差项,然后输出T=R/Z[0,1)n2qpoly(n)sZqnϕRAs,ϕZqn×TaZqnxϕ(a,b=a,s/q+x)Zqn×T

令为的“离散化” 。也就是说,我们首先从绘制一个样本,然后输出。这里表示将舍入到最接近的整数值,因此我们可以将视作。As,ϕ¯As,ϕ(a,b)As,ϕ(a,b)=(a,bq)Zqn×Zq(a,b)(a,b=a,s+qx)

在规范的设置中,我们将误差分布设为高斯分布。对于任何,在一维高斯概率分布的密度函数由。我们将为离散化的简写ϕα>0RDα(x)=eπ(x/α)2/αAs,αAs,Dα

LWE定义:

搜索版本 我们从中得到样本,我们可以将其视为“嘈杂的”线性方程式(注意:):LWEn,q,αN=poly(n)As,αai,sZqn,biZq

a1,sχb1modq
aN,sχbNmodq

其中每个方程式的误差均由宽度()的(居中)离散高斯独立得出。我们的目标是恢复。(观察到,没有错误,我们可以使用高斯消除来解决这个问题,但是在出现此错误时,高斯消除会严重失败。)αqs

决策版本 ,我们可以访问一个oracle,该oracle在查询时返回样本。我们保证样本全部来自或来自均匀分布。我们的目标是区分情况。DLWEn,q,αOs(a,b)As,αU(Zqn)×U(Zq)

当时,两个问题都解决。hardαq>2n

与复杂性理论的联系:

已知(有关详细信息,请参见[1],[2]),LWE对应于解决GapSVP实例的双晶格上的有界距离解码(BDD)问题。用于LWE的多项式时间算法将暗示一种多项式时间算法,以近似中的某些晶格问题,例如SIVP和SVP,其中是一个小的多项式因数(例如)。O~(n/α)1/αn2

当前算法限制

当为超过1/2,阿罗拉和Ge [3]得到亚指数时间为LWE算法严格以下。这个想法是,从高斯的众所周知的属性来看,这种绘制误差项除了指数幂的可能性很小之外,就适合“结构噪声”设置。直观地讲,在这种情况下,每当我们收到1个样本时,我们都会收到一个样本块,并保证不超过某个恒定分数包含错误。他们使用这种观察来“线性化”问题,并列举误差空间。αqnϵϵm

Question_

假设我们被赋予了对oracle访问权限。在查询时,首先查询以获得样本。如果是从中提取的,则返回一个样本,其中代表错误项的“方向”(或值的“符号”) 。如果是随机绘制的,则返回Os+Os+Os(a,b)(a,b)As,αOs+(a,b,d)Zqn×Zq×Z2d±(a,b)Os+(a,b,d)U(Zqn)×U(Zq)×U(Z2)。(或者,我们可以考虑以下情况:当随机均匀地绘制时,敌对地选择位。)db

令像以前一样,只是对于一个足够大的常数,现在。(这是为了确保每个方程中的绝对误差不受影响。)与签名错误定义学习(LWSE)问题和和以前一样,不同之处在于现在,对于每个错误术语的符号,我们还有其他建议。n,q,ααq>cncLWSEn,q,αDLWSEn,q,α

两种版本的LWSE是否比LWE的版本容易得多?

例如

1. LWSE是否有次指数时间算法?
2.基于线性规划的多项式时间算法又如何呢?

除上述讨论外,我的动机是探索LWE的算法选项(目前我们相对较少选择)。特别地,已知的为问题提供良好算法的唯一限制与误差项的大小有关。在这里,大小保持不变,但是每个方程式中的误差范围现在都以某种方式为“单调”。(最后的评论:我不知道文献中出现的问题的提法;它似乎是原始的。)

参考文献:

[1] Regev,Oded。JACM 2009中的“论格,有错误的学习,随机线性代码和密码术”(最初在STOC 2005上发表)(PDF

[2] Regev,Oded。CCC 2010邀请调查中的“有错误的学习问题”(PDF

[3] Arora,Sanjeev和Ge,Rong。ICALP 2011上的“有错误时学习的新算法”(PDF

Answers:


6

(哇!经过三年的时间,现在很容易回答。这很有趣!-丹尼尔)

正如我(三年前)在上文中提出并指出的,“(带符号的错误)学习”(LWSE)问题与双向可否认公众工作中首次引入的“ 带错误的扩展学习”(eLWE)问题无关紧要。由O'Neill,Peikert和Waters在CRYPTO 2011上进行的密钥加密。

ELWE问题是定义类似于“标准” LWE(即[ Regev2005 ]),除了(高效)的识别器被附加给在LWE样品的误差向量‘提示’分布,在形式(带有任意向量内积。(在应用程序中通常是某些密码系统的解密密钥向量。)xzz

形式上,问题的描述如下:eLWEn,m,q,χ,β


对于整数,以及误差分布超过,有错误的问题的扩展学习是下面对分布之间进行区分: 其中和,其中q=q(n)2χ=χ(n)Zq

{A,b=ATs+x,z,z,x+x},
{A,u,z,z,x+x},
AZqn×m,sZqn,uZqm,x,zχm,xDβqDα是宽度的(一维)离散高斯分布。α


这是很容易看到,ELWE的捕获“的精神” LWSE,虽然正式的降低可以没有太多额外的努力来显示。

在工作中提出了有关理解扩展LWE问题的主要后续思路:

根据您的密钥是位于还是二进制(以及其他各种参数选择的性质),您可以使用第一篇或第二篇论文的还原词最终从量子/经典还原。与近似度到LWSEZqGapSVPααΩ(n1.5)


PS或用一句话“ LWE是强壮的”,或用一种最能体现这种精神的论文:people.csail.mit.edu/vinodv/robustlwe.pdf
Daniel Apon

PPS现在距主要答案的主体适当的距离...这是最近的工作,“扩展”了我们对带有错误的扩展学习的理解:eprint.iacr.org/2015/993.pdf
Daniel
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.