人工智能

对于在纯数字环境中可以模仿“认知”功能的世界中对生活和挑战感兴趣的人们的问答

4
什么是动态计算图?
通过TensorFlow Fold的PyTorch和TensorFlow之类的框架支持动态计算图,并受到了数据科学家的关注。 但是,似乎缺少帮助理解动态计算图的资源。 动态计算图的优点似乎包括适应输入数据中不同数量的能力。似乎可以根据训练期间的每个输入集实例自动选择层数,每层神经元数,激活功能和其他NN参数。这是准确的描述吗? 动态模型比静态模型有什么优势?这就是为什么DCG备受关注吗?总而言之,DCG是什么,它们的利弊是什么?

1
Lovelace Test 2.0是否已在学术环境中成功使用?
受最初的Lovelace测试(于2001年发布)的启发,2014年10月,Mark Riedl博士发布了一种测试AI智能的方法,称为“ Lovelace Test 2.0”。马克认为原始的Lovelace测试无法通过,因此建议使用较弱的实用版本。 Lovelace Test 2.0做出这样的假设:要使AI变得智能,它就必须表现出创造力。从论文本身来看: Lovelace 2.0测试如下:人工试剂a受到以下挑战: 必须创建类型为t的工件o; o必须符合一组约束C,其中ci∈C是可以用自然语言表达的任何准则; 选择了t和C的人类评估者h确信o是t的有效实例并且满足C;和 裁判员确定t和C的组合对于普通人而言并非不切实际。 由于人工评估者可能会提出一些非常简单的约束来击败AI,因此期望人工评估者不断为AI提出越来越复杂的约束,直到AI失效为止。Lovelace测试2.0的重点是比较不同AI的创造力,而不是像图灵测试那样在“智能”和“非智能”之间提供明确的分界线。 但是,我很好奇这个测试是否实际上已在学术环境中使用,或者目前仅被视为一项思想实验。Lovelace测试似乎很容易在学术环境中应用(您只需要开发一些可测量的约束即可用于测试人工代理),但是它也可能过于主观(人类可以就某些约束的优缺点以及是否对某些约束持不同意见)。由AI产生的创意人工产物实际上达到了最终结果)。


7
如果数字值仅是估计值,为什么不为AI返回模拟?
二十世纪从模拟电路向数字电路过渡的动力来自对更高精度和更低噪声的渴望。现在,我们正在开发结果近似且噪声为正值的软件。 在人工网络中,我们使用梯度(Jacobian)或二级模型(Hessian)来估计收敛算法中的下一步,并定义可接受的不准确度和不确定性水平。1个 在收敛策略中,我们有意通过注入随机或伪随机扰动来添加噪声,以通过在收敛过程中实质上跳出优化表面中的局部最小值来提高可靠性。2 我们在当前的AI系统中接受并故意引入的东西与将电子设备推向数字电路的事物相同。 为什么不回到神经网络的模拟电路,并用运算放大器矩阵而不是数字信号处理元件矩阵来实现呢? 可以使用通过D-A转换器充电的集成电容器来维持人工网络学习参数的值,从而使学习状态可以受益于数字准确性和便利性,而正向传播则受益于模拟优势。 更高的速度3 代表网络单元的晶体管数量减少了几个数量级 自然热噪声4 在过去的四十年中,关于模拟人工网络的学术文章或专利搜索揭示了许多工作,并且研究趋势得以保持。计算模拟电路已经很好地开发,并为神经阵列提供了基础。 当前对数字计算的痴迷会否笼罩AI架构选择的普遍看法? 混合模拟是人工网络的高级架构吗? 脚注 [1] PAC(可能近似正确)学习框架将可接受的误差ϵϵ\epsilon和可接受的疑问δδ\delta与特定模型类型的学习所需的样本量相关联。(注意1 − ϵ1个-ϵ1 - \epsilon表示准确性和1 - δ1个-δ1 - \delta代表在这个框架的信心。) [2]显示了随机梯度下降,当使用适当的策略和超参数时,可以在学习过程中更快地收敛,并且正在成为典型的人工网络实际应用中的最佳实践。 [3]英特尔酷睿i9-7960X处理器以4.2 GHz的加速速度运行,而标准的固定卫星广播为41 GHz。 [4]通过放大和过滤在雪崩点处反向偏置的齐纳二极管两端的电子泄漏,可以在硅上获得热噪声。量子现象的根源是约翰逊·奈奎斯特热噪声。Sanguinetti等。等 在“移动电话上的量子随机数生成”(2014年)中指出,“可以将检测器建模为具有传输概率η的有损通道,然后将其建模为具有单位效率的光子电子转换器...测量的分布将是量子不确定性和技术噪声的结合”,还有加州理工学院的JTWPA工作。这两个都可能成为在集成电路中产生真正不确定的量子噪声的标准。 参考文献 使用卷积神经网络的STDP学习图像补丁,Saunders等。等 2018,U Mass和HAS 具有有限精度模拟计算的通用代码加速,Amant等。等,2014年 新的MIT编译器推动了模拟计算和生物学仿真的发展,作者:Devin Coldewey,2016年 模拟计算收益,拉里·哈迪斯蒂(Larry Hardesty),2016年* 为什么要进行模拟计算?,NSA解密文件 回到模拟计算:Columbia研究人员将模拟和数字计算融合在一个芯片上,Columbia U,2016年 可重构计算的现场可编程纵横制阵列(FPCA),Zidan等。等,IEEE,2017年 FPAA /忆阻器混合计算基础架构,Laiho等。等,IEEE,2015年 活细胞计算的基础和新兴范例,Ma,Perli,Lu,哈佛大学,2016 面向硬件发展的CMOS现场可编程晶体管阵列的灵活模型Zebulum,Stoica,Keymeulen,NASA / JPL,2000年(FPAA) 定制线性阵列每个芯片可集成多达48个精密运算放大器,Ashok Bindra,2001年,电子设计 …



2
只有人类才能解决的问题
随着reCAPTCHA的复杂性不断提高,我想知道是否存在某些问题,只有人类才能解决(或者,如果AI无法完全重现人类的大脑,AI就无法解决) 。 例如,扭曲的文本曾经只能由人类解决。虽然... 现在,即使在最具挑战性的情况下,计算机也可以使[变形文本]测试正确率为99.8%。 同样明显的是,扭曲的文本不再可以用于真实的人类检测。 我还想知道是否可以使用一种算法来创建这样的问题(例如扭曲的文本),或者是否需要人脑的独创性。


3
是否有镜像神经元的计算模型?
从维基百科: 镜像神经元是一种在动物行动时以及动物观察到另一人执行的相同动作时均会激发的神经元。 镜像神经元与模仿学习有关,模仿学习是当前现实世界中AI实现中缺少的非常有用的功能。代替从输入输出示例(监督学习)或从奖励(强化学习)中学习,具有镜像神经元的智能体将能够通过简单地观察其他智能体,将其运动转换为自己的坐标系来学习。关于计算模型,我们对此有什么看法?

3
了解GAN损失函数
我正在努力理解GAN损失功能,这在理解生成对抗网络(由Daniel Seita撰写的博客文章)中提供。 在标准的交叉熵损失中,我们有一个通过S型函数进行的输出以及所得的二进制分类。 西埃塔州 因此,对于[每个]数据点x1x1个x_1及其标签,我们得到以下损失函数... H((x1,y1),D)=−y1logD(x1)−(1−y1)log(1−D(x1))H((x1,y1),D)=−y1log⁡D(x1)−(1−y1)log⁡(1−D(x1)) H((x_1, y_1), D) = -y_1 \log D(x_1) - (1 - y_1) \log (1 - D(x_1)) 这只是期望的对数,这是有道理的,但是在GAN损失函数中,我们如何在同一迭代中处理来自真实分布的数据和来自生成模型的数据呢?


1
玻尔兹曼机器可以存储比Hopfield网络更多的模式吗?
这是来自AI的封闭测试版,该问题由47号用户发布。所有信息都归功于他们。 根据维基百科, Boltzmann机器可以视为Hopfield网络的随机,生成对应物。 两者都是循环神经网络,可以训练它们学习位模式。然后,当呈现部分模式时,网络将检索完整的完整模式。 Hopfield网络已被证明具有0.138的容量(例如,每1000个节点可以从存储中调用大约138位向量,Hertz 1991)。 由于玻尔兹曼机是随机的,我的理解是,当一个存储的模式与另一个存储的模式之间的能量差相似时,它不一定总是显示相同的模式。但是由于这种随机性,也许它可以存储更密集的模式,但不能保证您始终会获得能量差最接近的模式。这是真的吗?还是Hopfield网络能够存储更多模式?

3
为什么不能将OCR视为AI的典范?
在有关AI 的维基百科页面上,我们可以阅读: 光学字符识别不再被视为已成为常规技术的“人工智能”的典范。 另一方面,MNIST手写数字数据库是专门为训练和测试神经网络及其错误率而设计的(请参阅:分类器)。 那么,为什么上面的引用声明OCR不再是AI的典范?
17 ocr 

1
反向传播技术之间的差异
只是为了好玩,我正在尝试开发一个神经网络。 现在,对于反向传播,我看到了两种技术。 第一个是用在这里和其他许多地方。 它的作用是: 它计算每个输出神经元的误差。 它将其反向传播到网络中(计算每个内部神经元的错误)。 它使用以下公式更新权重:(其中权重的变化,学习速度,神经元从突触接收输入并作为在突触上发送的输出的错误)。 对于数据集的每个条目,它会重复多次。 但是,本教程中提出的神经网络(也可以在GitHub上获得)使用另一种技术: 它使用错误函数(另一种方法确实具有错误函数,但未将其用于训练)。 它具有另一个功能,可以从权重开始计算最终误差。 它将功能最小化(通过梯度下降)。 现在,应该使用哪种方法? 我认为第一个是最常用的(因为我看到了使用它的不同示例),但是它也能正常工作吗? 特别是,我不知道: 它不是更受局部最小值约束(因为它不使用二次函数)吗? 由于每个权重的变化都受其输出神经元的输出值的影响,因此恰好在神经元中产生较高值的数据集的条目(不仅仅是输出的)不比其他条目对权重的影响更大吗? 现在,我确实更喜欢第一种技术,因为我发现它更易于实现且更易于考虑。 但是,如果确实存在我提到的问题(我希望没有),那么是否有实际理由在第二种方法上使用它?

4
深度学习方法的问题和替代方法?
在过去的50年中,神经网络的流行程度的上升/下降/上升已经成为AI研究的“晴雨表”。 从该网站上的问题中可以很明显地看出,人们对将深度学习(DL)应用于各种困难问题很感兴趣。 因此,我有两个问题: 从业者-您发现将DL“开箱即用”应用于问题的主要障碍是什么? 研究人员-您使用(或已开发)哪些技术可能有助于解决实际问题?它们在DL中还是在提供替代方法?

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.