神经网络有什么不同的用途?


Answers:


9

我同意这太广泛了,但是对于大多数人来说,这是一句话的答案。我遗漏的那些(从图表底部开始)非常现代,非常专业。我对他们了解不多,所以也许有人可以改善这个答案。

  • 感知器:线性或逻辑回归(因此分类)。
  • 前馈:通常是非线性回归或具有S形激活的分类。本质上是多层感知器。
  • 径向基网络:具有径向基激活功能的前馈网络。用于分类和某些视频/音频过滤
  • 深度前馈:前馈具有1个以上的隐藏层。用于学习分类或回归中更复杂的模式,也许是强化学习。

  • 循环神经网络:一种深度前馈网络,其中某些节点连接到过去的层。用于强化学习,并学习顺序数据(例如文本或音频)中的模式。
  • LSTM:具有专用控制神经元(有时称为门)的递归神经网络,可以使信号记住更长时间或有选择地遗忘。在任何RNN应用程序中使用,并且经常能够学习重复时间很长的序列。
  • GRU:很像LSTM,另一种带有专门控制神经元的门控RNN。

  • 自动编码器:学习压缩数据然后解压缩。学习了此模型后,可以将其分为两个有用的子部分:从输入空间到低维特征空间的映射,可能更易于解释或理解。以及从简单数字的小维子空间到复杂模式的映射,可以用来生成那些复杂模式。视觉,语言和音频处理方面许多现代工作的基础。
  • VAE,DAE,SAE:自动编码器的专业。

  • 马尔可夫链(Markov Chain):马尔可夫链的神经网络表示:状态在活动的神经元集中进行编码,因此,转移概率由权重定义。用于学习过渡概率和其他应用程序的无监督特征学习。
  • HN,BM,RBM,DBM:基于马尔可夫链思想的专业架构,用于自动学习其他应用程序的有用功能。

  • 深度卷积网络:类似于前馈网络,但每个节点实际上都是一堆节点,可从其上一层学习卷积。从本质上讲,这使它可以学习过滤器,边缘检测器以及视频和音频处理中其他感兴趣的模式。

  • 深度反卷积网络:在某种意义上与卷积网络相对。从代表某些未看见图像的边缘或其他高级属性的特征中学习到像素空间的映射。从摘要生成图像。

  • DCIGN:本质上是由DCN和DN粘在一起制成的自动编码器。用于学习复杂图像(例如人脸)的生成模型。

  • 生成对抗网络:当DCIGN没有足够的训练数据时,用于学习复杂图像(或其他数据类型)的生成模型。一个模型学习从随机噪声生成数据,另一个模型学习将第一个网络的输出分类为与任何可用训练数据不同的模型。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.