人工智能

对于在纯数字环境中可以模仿“认知”功能的世界中对生活和挑战感兴趣的人们的问答

2
自动驾驶汽车是否会依靠随机性来做出决定?
我最近听到有人说,当您设计自动驾驶汽车时,您并不是在建造汽车,而是真正的计算机驾驶员,因此您正在尝试模拟人的思想-至少是汽车的一部分。可以驱动的人类思维。 由于人类是无法预测的,或者因为人类的行为取决于许多因素,而其中许多因素将在很长一段时间内无法解释,因此,自动驾驶汽车将如何反映这一点? 一定程度的不可预测性可能有其用途。例如,如果两辆自动驾驶汽车陷入了死锁的状态,那么最好注入一些随机性,而不是如果这些汽车运行相同的系统,则可能无法同时看到相同的动作。 但是,另一方面,我们知道不确定性并不是软件开发的朋友,特别是在测试中。工程师将如何控制它并对此进行推理?

4
识别人工制作的媒体有哪些策略?
随着廉价地创建假图片,假声音和假视频的能力不断增强,识别真实和不真实的问题变得越来越严重。甚至现在,我们仍然看到了一些应用程序示例,这些应用程序以很少的成本创建了伪媒体(请参阅Deepfake,FaceApp等)。 显然,如果以错误的方式使用这些应用程序,它们可能会被用于损害他人的形象。Deepfake可以使一个人对伴侣不忠。可以使用另一个应用程序来使它看起来像政客所说的那样。 有哪些可用于识别和保护人造介质的技术?

3
如何计算句子之间的结构相似度?
我正在研究一个需要确定两个句子是否相似的问题。我使用BM25算法和wordnet同义词集实现了一种解决方案,用于确定语法和语义相似性。该解决方案运行良好,即使句子中的单词顺序混乱,也可以衡量两个句子是相似的。例如 Python是一门好语言。 语言是一个好的python。 我的问题是确定这两个句子是否相似。 结构相似性的可能解决方案是什么? 我将如何维持句子的结构?

4
什么会激励机器?
当前,在AI开发领域内,主要重点似乎在模式识别和机器学习上。学习是基于反馈回路调整内部变量。 马斯洛的需求等级是亚伯拉罕·马斯洛(Abraham Maslow)提出的心理学理论,声称个人的最基本需求必须在他们被激发达到更高层次的需求之前得到满足。 是什么可能促使机器行动呢?机器是否应该具有某种类似于DNA的结构来描述其需求层次(类似于Maslow的理论)?机器的基本需求是什么?

2
生成对抗网络如何工作?
我正在阅读有关生成对抗网络(GAN)的信息,对此我有些怀疑。到目前为止,我了解到,在GAN中,有两种不同类型的神经网络:一种是生成型(GGG),另一种是判别型(DDD)。生成神经网络生成一些数据,这些数据由判别神经网络判断正确性。GAN通过将损失函数传递给两个网络来学习。 区分性(DDD)神经网络最初如何知道GGG生成的数据是否正确?我们是否必须先训练DDD然后将其与GGG一起添加到GAN中? 让我们考虑我训练有素的DDD网,它可以将图片分类的准确率达到90%。如果我们将此DDD网添加到GAN,则有10%的概率会将图像分类为错误。如果我们用这个DDD网络训练GAN,那么在分类图像时,它也会有同样的10%错误吗?如果是,那么GAN为何显示出令人满意的结果?

1
Deepmind的新“可分化神经计算机”将如何扩展?
Deepmind刚刚发表了一篇有关“可分化神经计算机”的论文,该论文基本上将神经网络与内存结合在一起。 这个想法是要教神经网络为特定任务创建和调用有用的显式记忆。这很好地补充了神经网络的功能,因为NN仅在权重中隐式存储知识,而用于执行单个任务的信息仅存储在网络激活中,并会随着添加的更多信息而迅速降解。(LSTM是一种尝试减缓这种短期记忆退化的方法,但仍然会发生。) 现在,它们可能不是在激活中保留必要的信息,而是在激活中保留特定信息的存储插槽地址,因此这些地址也应进行降级。我的问题是为什么这种方法应该扩展。数量更多的特定于任务的信息难道不应该使网络在其激活时保持所有适当内存插槽的地址的能力不堪重负吗?

6
是否将穷举搜索方法视为AI?
有些程序对解决方案进行详尽搜索,而另一些程序则对相似答案进行启发式搜索。例如,在国际象棋中,对最佳下一步操作的搜索本质上趋于穷举,而在国际象棋中,由于更大的搜索空间,对最佳下一步操作的搜索本质上往往更具启发性。 蛮力搜索穷人的技术是否被认为是AI,还是一般要求先将启发式算法用于AI?如果是这样,下象棋的计算机是否击败了人类专业人员,这被视为有意义的里程碑?

1
为什么DQN需要两个不同的网络?
我正在研究DQN的此实现,我发现在第124和125行上已经初始化了两个不同的Q网络。根据我的理解,我认为一个网络可以预测适当的操作,第二个网络可以预测目标Q值以查找Bellman误差。 为什么我们不能仅制作一个简单的网络来简单地预测Q值,并在两种情况下都使用它?我最好的猜测是这样做是为了减少计算时间,否则我们将不得不找出每个动作的q值,然后选择最佳动作。这是唯一原因吗?我想念什么吗?

3
机器学习在很大程度上尚未探索哪些拓扑?[关闭]
已关闭。这个问题需要更加集中。它当前不接受答案。 想改善这个问题吗?更新问题,使其仅通过编辑此帖子来关注一个问题。 28天前关闭。 几何与AI 矩阵,多维数据集,层,堆栈和层次结构就是我们可以准确地称为拓扑的东西。在这种情况下,将拓扑视为学习系统的更高级别的几何设计。 随着复杂性的提高,将这些拓扑表示为有向图结构通常很有用。状态图和马尔可夫在博弈论上的工作是经常使用有向图的两个地方。有向图具有顶点(通常显示为封闭形状),并且边缘通常显示为连接形状的箭头。 我们还可以将GAN表示为有向图,其中每个网络的输出以对抗的方式驱动另一个网络的训练。GAN的拓扑结构类似于莫比乌斯带。 我们不能发现新的设计和体系结构,不仅要了解收敛于最佳解决方案或跟踪一个最优解决方案的数学原理,还要了解可以支持这种收敛的网络连接拓扑。这就像先开发处理器,然后在编写操作系统之前先想象一下操作系统需要什么。 为了瞥见我们尚未考虑的拓扑,让我们首先看一下那些拓扑。 第一步-二维拉伸 在1980年代,通过扩展原始感知器设计获得了成功。研究人员增加了第二个维度来创建多层神经网络。通过误差函数梯度的反向传播,通过激活率梯度的反向传播,实现了合理的收敛,该激活函数的梯度因学习率而衰减,并受其他元参数抑制。 第二步-向离散输入信号添加尺寸 我们看到了基于现有手动调整图像卷积技术的卷积网络的出现,这些技术为网络输入引入了尺寸:垂直位置,颜色分量和框架。最后一个维度对于当代电影制作中的CGI,面部替换以及其他形态技术至关重要。没有它,我们将无法生成图像,进行分类和去除噪声。 第三步-网络堆栈 我们看到在1990年代后期出现了许多神经网络,其中一个网络的训练由另一个网络监督。这是概念层的引入,无论是神经元的连续层还是图像中的颜色层。这种类型的分层也不是递归的。它更像自然世界,其中一个结构是另一种完全不同的结构中的器官。 第四步-网络层次结构 我们看到,在2000年代和2010年代初(拉普拉斯等人)进行的研究中,神经网络的层次结构频繁出现,这继续了神经网络之间的相互作用并继续了哺乳动物的大脑类比。现在,我们看到元结构,其中整个网络在表示拓扑的有向图中成为顶点。 第五步%mdash; 从笛卡尔方向出发 非笛卡尔系统重复排列的细胞及其之间的联系已开始出现在文献中。例如,量规等规卷积网络和二十面体CNN(Taco S.Cohen,Maurice Weiler,Berkay Kicanaoglu,Max Welling,2019)研究了基于凸正二十面体的布置。 总结 对于顶点和衰减矩阵,层具有通常价值的激活函数,这些函数映射到相邻层之间的详尽的定向边缘集[1]。图像卷积层通常为二维顶点排列,其衰减立方体映射到相邻层之间的一组定向边的缩减集合[2]。堆栈具有完整的分层网络,作为元有向图中的顶点,这些元顶点按顺序连接,每个边都是训练元参数,增强(实时反馈)信号或某些其他学习控制。网络的层次结构反映了可以聚合多个控件并指导较低级别的学习的概念,或者反映了可以由一个较高级别的主管网络控制多个学习元素的情况。 学习拓扑趋势分析 我们可以分析机器学习架构的趋势。我们有三种拓扑趋势。 因果维度的深度-信号处理的层,其中一层激活的输出通过衰减参数(权重)矩阵馈送到下一层的输入。随着建立更多的控制,仅从反向传播中的基本梯度下降开始,就可以实现更大的深度。 输入信号的维数-从标量输入到超立方体(视频具有水平,垂直,包括透明度和帧的色深-请注意,这与感知器意义上的输入数量不同。 拓扑发展-以上两个本质上都是笛卡尔。尺寸与现有尺寸成直角添加。由于网络以层次结构连接(如拉普拉斯层次结构),莫比乌斯带像圆圈一样(如GAN),因此趋势是地形性的,最好用有向图表示,其中顶点不是神经元,而是较小的网络。 缺少哪些拓扑? 本节扩展标题问题的含义。 有什么理由可以安排多个每个代表神经网络的元顶点,以便多个主管元顶点可以联合起来监督多个员工元顶点? 为什么误差信号的反向传播是负反馈的唯一非线性等效形式? 在代表控件的两个倒数边缘的情况下,不能使用元顶点之间的协作而不是监督? 由于神经网络主要用于学习非线性现象,因此为什么在网络的设计或互连中禁止其他类型的闭合路径? 有什么理由不能将声音添加到图片中以便可以自动对视频片段进行分类?如果是这样,电影剧本是否可以提取电影的特征,并且可以使用对抗性体系结构生成电影剧本并制作电影而无需电影制片厂系统?作为有向图,该拓扑将是什么样? 尽管正交排列的像元可以模拟非正交顶点和边缘的任意规则堆积排列,但是在计算机视觉中,照相机的倾斜度通常为正负90度以外,这样做是否有效? 在以自然语言理解和组装或人工认知为目标的学习系统中,将单个细胞垂直排列在AI系统中的网络中还是将其垂直排列在AI系统中是有效的吗? 笔记 MLP中的人造细胞使用浮点或定点算术传递函数,而不是基于基于幅度和接近度的阈值的电化学脉冲传输。它们不是对神经元的真实模拟,因此将顶点神经元称为这种分析的误称。 图像特征的相关性和紧邻像素之间的相对变化远高于远处像素。

2
是否有任何科学/数学论据阻止深度学习产生强大的AI?
我读了Judea Pearl的《为什么书》,其中提到深度学习只是一种荣耀的曲线拟合技术,将无法产生类似于人的智力。 在他的书中有这张图说明了认知能力的三个层次: 想法是,当前的深度学习技术所产生的“智能”仅处于关联级别。因此,AI距离问“如何使Y发生”(干预)和“如果我采取不同的行为怎么办,X还会发生吗?”之类的问题相去甚远。(反事实),曲线拟合技术极不可能使我们更接近更高的认知能力。 我发现他的论点在直觉上具有说服力,但我找不到任何可以支持或怀疑该论点的物理或数学定律。 那么,是否有任何科学/物理/化学/生物/数学论证阻止深度学习产生强大的AI(类人智力)?

4
是什么使神经网络如此擅长预测?
我是神经网络的新手,我试图从数学上理解是什么使神经网络非常擅长分类问题。 以一个小型神经网络为例(例如,一个具有2个输入,2个隐藏层节点和2个输出节点)的神经网络,您所拥有的只是一个复杂的函数,在线性组合上大部分为S形乙状结肠。 那么,这如何使他们擅长预测?最终函数会导致某种曲线拟合吗?


2
是否有任何具有“集中力”的人工智能?
人类可以同时执行多个任务(例如,边听音乐边读书),但是我们从不太集中的来源记住信息的效率要比集中在主要任务上的效率差。 在人工智能中是否存在这样的事情?例如,我怀疑神经网络是否具有这种特性,但我可能是错的。

2
为什么在使用函数逼近时Q学习无法收敛?
只要满足以下条件(关于学习率的条件)(罗宾斯-蒙罗条件),表格式Q学习算法就可以确保找到最佳Q问Q函数Q∗问∗Q^* ∑tαt(s,a)=∞∑ŤαŤ(s,一个)=∞\sum_{t} \alpha_t(s, a) = \infty ∑tα2t(s,a)&lt;∞∑ŤαŤ2(s,一个)&lt;∞\sum_{t} \alpha_t^2(s, a) < \infty 其中αt(s,a)αŤ(s,一个)\alpha_t(s, a)意味着更新时使用的学习率Q问Q与状态相关联的值sss和行动a一个a在时间的时间步长tŤt,其中0≤αt(s,a)&lt;10≤αŤ(s,一个)&lt;1个0 \leq \alpha_t(s, a) < 1被假定为是真实的,对于所有状态sss和动作a一个a。 显然,由于0≤αt(s,a)&lt;10≤αŤ(s,一个)&lt;1个0 \leq \alpha_t(s, a) < 1,为了使两个条件是真实的,所有的状态行动对必须无限频繁地访问:这也就是书中指出强化学习:介绍,除了应该广为人知的事实,这是使用ϵϵ\epsilon在培训过程中 ϵ-贪婪策略(或类似策略)。 可以在论文《 Q学习的收敛性:简单证明》(Francisco S. Melo 撰写)中找到完整的证明,表明Q问Q学习能够找到最佳Q问Q函数。他使用诸如收缩映射之类的概念来定义最佳Q函数(另请参阅强化学习中的Bellman运算符是什么?),这是该收缩运算符的一个固定点。在给出一些假设的情况下,他还使用关于收敛到0的随机过程的定理(n。2)。(如果您不是数学家,则证明可能不容易理解。)Q问Q000 如果使用神经网络来表示Q问Q函数,那么Q问Q学习的收敛性保证是否仍然成立?使用函数逼近时,为什么Q学习会收敛(或不收敛)?是否有正式的证据证明这种不收敛Q问Q使用函数逼近 Q学习? 我正在寻找不同类型的答案,这些答案仅给出了Q不收敛背后的直觉。Q问Q提供使用函数逼近时使用学习到提供正式证明(或提供正式证明的论文链接)。

7
可以训练AI生成故事大纲吗?
我知道,当前的一种流行方式是训练神经网络来生成诸如《朋友》或《辛普森一家》等剧本和新剧集,这很好:这很有趣,并且可能是制作可以实际生成的程序的必要的第一步。明智/可理解的故事。 在这种情况下,是否可以对神经网络进行专门的培训,以研究故事或电影剧本的结构,并可能生成情节点或《英雄之旅》中的步骤等,从而有效地编写故事大纲? 对我来说,这与许多在线上的无数绘图点生成器不同,尽管我必须承认它们的相似性。我只是想知道技术或实施是否还存在,如果存在的话,我会怎么做。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.