Questions tagged «topology»

2
在任何任务上,模块化神经网络是否都比大型整体网络更有效?
模块化/多个神经网络(MNN)围绕训练较小的独立网络而形成,它们可以相互馈入或与另一个较高的网络交流。 原则上,分层组织可以使我们理解更复杂的问题空间并获得更高的功能,但是似乎很难找到过去就此进行的具体研究的示例。我找到了一些资料: https://zh.wikipedia.org/wiki/Modular_neural_network https://www.teco.edu/~albrecht/neuro/html/node32.html https://vtechworks.lib.vt.edu/bitstream/handle/10919/27998/etd.pdf?sequence=1&isAllowed=y 我有几个具体问题: 最近有没有关于使用MNN的研究? MNN表现出比大型单个网络更好的性能吗? MNN是否可以用于多模式分类,即在根本不同的数据类型(文本还是图像)上训练每个网络,并转发到对所有输出进行操作的高级中介? 从软件工程的角度来看,这些不是在分布式系统上更具容错性且易于隔离吗? 是否使用神经结构搜索之类的方法来动态调整子网的拓扑结构? 通常,MNN是否以任何方式实用? 道歉,如果这些问题看起来很幼稚,我只是从生物学/神经科学背景进入ML,甚至更广泛地进入CS,并被潜在的相互作用所吸引。 非常感谢您抽出宝贵的时间为您提供见解!

3
人工神经网络和生物神经网络有何异同?
我已经多次听到“神经网络是我们必须为人类大脑建模的最佳近似值”,并且我认为众所周知,神经网络是模仿我们的大脑建模的。 我强烈怀疑此模型已简化,但是要多少钱呢? 例如,香草神经网络与我们对人脑的了解有多少不同?我们甚至知道吗?

2
如何针对任意问题自动选择神经网络的拓扑?
假设我想用神经网络解决一个我无法适应现有拓扑(感知器,Konohen等)的问题,或者我根本不知道这些拓扑的存在,或者我无法理解它们的存在机械师,我依靠自己。 对于一个任意问题,我该如何自动选择神经网络的拓扑(即层数,激活类型,连接类型和方向等)? 我是一个初学者,但是我意识到,在某些拓扑结构中(或者至少在感知器中),很难甚至不可能理解内部机制,因为隐藏层的神经元不表达任何数学上有意义的上下文。

3
机器学习在很大程度上尚未探索哪些拓扑?[关闭]
已关闭。这个问题需要更加集中。它当前不接受答案。 想改善这个问题吗?更新问题,使其仅通过编辑此帖子来关注一个问题。 28天前关闭。 几何与AI 矩阵,多维数据集,层,堆栈和层次结构就是我们可以准确地称为拓扑的东西。在这种情况下,将拓扑视为学习系统的更高级别的几何设计。 随着复杂性的提高,将这些拓扑表示为有向图结构通常很有用。状态图和马尔可夫在博弈论上的工作是经常使用有向图的两个地方。有向图具有顶点(通常显示为封闭形状),并且边缘通常显示为连接形状的箭头。 我们还可以将GAN表示为有向图,其中每个网络的输出以对抗的方式驱动另一个网络的训练。GAN的拓扑结构类似于莫比乌斯带。 我们不能发现新的设计和体系结构,不仅要了解收敛于最佳解决方案或跟踪一个最优解决方案的数学原理,还要了解可以支持这种收敛的网络连接拓扑。这就像先开发处理器,然后在编写操作系统之前先想象一下操作系统需要什么。 为了瞥见我们尚未考虑的拓扑,让我们首先看一下那些拓扑。 第一步-二维拉伸 在1980年代,通过扩展原始感知器设计获得了成功。研究人员增加了第二个维度来创建多层神经网络。通过误差函数梯度的反向传播,通过激活率梯度的反向传播,实现了合理的收敛,该激活函数的梯度因学习率而衰减,并受其他元参数抑制。 第二步-向离散输入信号添加尺寸 我们看到了基于现有手动调整图像卷积技术的卷积网络的出现,这些技术为网络输入引入了尺寸:垂直位置,颜色分量和框架。最后一个维度对于当代电影制作中的CGI,面部替换以及其他形态技术至关重要。没有它,我们将无法生成图像,进行分类和去除噪声。 第三步-网络堆栈 我们看到在1990年代后期出现了许多神经网络,其中一个网络的训练由另一个网络监督。这是概念层的引入,无论是神经元的连续层还是图像中的颜色层。这种类型的分层也不是递归的。它更像自然世界,其中一个结构是另一种完全不同的结构中的器官。 第四步-网络层次结构 我们看到,在2000年代和2010年代初(拉普拉斯等人)进行的研究中,神经网络的层次结构频繁出现,这继续了神经网络之间的相互作用并继续了哺乳动物的大脑类比。现在,我们看到元结构,其中整个网络在表示拓扑的有向图中成为顶点。 第五步%mdash; 从笛卡尔方向出发 非笛卡尔系统重复排列的细胞及其之间的联系已开始出现在文献中。例如,量规等规卷积网络和二十面体CNN(Taco S.Cohen,Maurice Weiler,Berkay Kicanaoglu,Max Welling,2019)研究了基于凸正二十面体的布置。 总结 对于顶点和衰减矩阵,层具有通常价值的激活函数,这些函数映射到相邻层之间的详尽的定向边缘集[1]。图像卷积层通常为二维顶点排列,其衰减立方体映射到相邻层之间的一组定向边的缩减集合[2]。堆栈具有完整的分层网络,作为元有向图中的顶点,这些元顶点按顺序连接,每个边都是训练元参数,增强(实时反馈)信号或某些其他学习控制。网络的层次结构反映了可以聚合多个控件并指导较低级别的学习的概念,或者反映了可以由一个较高级别的主管网络控制多个学习元素的情况。 学习拓扑趋势分析 我们可以分析机器学习架构的趋势。我们有三种拓扑趋势。 因果维度的深度-信号处理的层,其中一层激活的输出通过衰减参数(权重)矩阵馈送到下一层的输入。随着建立更多的控制,仅从反向传播中的基本梯度下降开始,就可以实现更大的深度。 输入信号的维数-从标量输入到超立方体(视频具有水平,垂直,包括透明度和帧的色深-请注意,这与感知器意义上的输入数量不同。 拓扑发展-以上两个本质上都是笛卡尔。尺寸与现有尺寸成直角添加。由于网络以层次结构连接(如拉普拉斯层次结构),莫比乌斯带像圆圈一样(如GAN),因此趋势是地形性的,最好用有向图表示,其中顶点不是神经元,而是较小的网络。 缺少哪些拓扑? 本节扩展标题问题的含义。 有什么理由可以安排多个每个代表神经网络的元顶点,以便多个主管元顶点可以联合起来监督多个员工元顶点? 为什么误差信号的反向传播是负反馈的唯一非线性等效形式? 在代表控件的两个倒数边缘的情况下,不能使用元顶点之间的协作而不是监督? 由于神经网络主要用于学习非线性现象,因此为什么在网络的设计或互连中禁止其他类型的闭合路径? 有什么理由不能将声音添加到图片中以便可以自动对视频片段进行分类?如果是这样,电影剧本是否可以提取电影的特征,并且可以使用对抗性体系结构生成电影剧本并制作电影而无需电影制片厂系统?作为有向图,该拓扑将是什么样? 尽管正交排列的像元可以模拟非正交顶点和边缘的任意规则堆积排列,但是在计算机视觉中,照相机的倾斜度通常为正负90度以外,这样做是否有效? 在以自然语言理解和组装或人工认知为目标的学习系统中,将单个细胞垂直排列在AI系统中的网络中还是将其垂直排列在AI系统中是有效的吗? 笔记 MLP中的人造细胞使用浮点或定点算术传递函数,而不是基于基于幅度和接近度的阈值的电化学脉冲传输。它们不是对神经元的真实模拟,因此将顶点神经元称为这种分析的误称。 图像特征的相关性和紧邻像素之间的相对变化远高于远处像素。

1
深层神经网络的层可以看作是Hopfield网络吗?
Hopfield网络能够存储矢量并从嘈杂的版本开始检索它。他们这样做是为了设置权重,以便在将所有神经元设置为等于矢量值时最小化能量函数,并使用其嘈杂版本作为输入来检索矢量,并使网络沉降到最小能量。 抛开诸如无法保证网络将稳定在最接近的最小值之类的问题之类的问题(最终由Boltzmann机器解决,最终通过反向传播解决的问题),突破之处在于它们是抽象表示的起点。同一文档的两个版本将调用相同的状态,它们在网络中将以相同的状态表示。 正如Hopfield自己在1982年的论文中所写,具有新兴的集体计算能力的神经网络和物理系统 然后,本建模可以与基于表示其特征的集合的输入如何记住或分类实体或格式塔有关。 另一方面,深度学习的突破是构建输入的多个层次表示的能力,最终使AI从业者的生活更加轻松,从而简化了特征工程。(参见例如,代表性学习:回顾与新观点,Bengio,Courville,Vincent)。 从概念的角度来看,我相信可以将深度学习视为Hopfield网络的概括:从一个单一的表示形式到表示的层次结构。 从计算/拓扑的角度来看也是这样吗?如果不考虑Hopfield网络的简单程度(两态神经元,无向能量函数),可以将网络的每一层视为Hopfield网络,而将整个过程视为先前记忆的格式塔的顺序提取,以及对网络结构的重组。这些格式塔?
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.