Questions tagged «rnn»

递归神经网络(RNN)是一类人工神经网络,其中单元之间的连接形成有向循环。

1
使用RNN(LSTM)进行手势识别系统
我正在尝试构建用于对ASL(美国手语)手势进行分类的手势识别系统,因此我的输入应该是来自摄像机或视频文件的帧序列,然后它检测到该序列并将其映射到对应的帧课堂(睡眠,帮助,饮食,跑步等) 事情是我已经建立了一个类似的系统,但是对于静态图像(不包括运动),它仅在构建CNN是直截了当的任务时才用于翻译字母,这是有用的,因为手不会动太多,并且数据集结构也很容易管理,因为我正在使用keras,也许仍然打算这样做(每个文件夹都包含一组用于特定符号的图像,并且文件夹的名称是该符号的类名,例如:A,B,C ,..) 我的问题是,如何组织我的数据集以便能够将其输入到keras中的RNN中,以及应使用哪些特定函数有效地训练我的模型和任何必要的参数,有些人建议使用TimeDistributed类,但我不这样做对如何使用它有利于我有一个清晰的想法,并考虑到网络中每一层的输入形状。 同样考虑到我的数据集将由图像组成,我可能需要一个卷积层,将conv层组合到LSTM层中是怎么可行的(我的意思是代码)。 例如,我想象我的数据集是这样的 名为“运行”的文件夹包含3个文件夹1、2和3,每个文件夹对应于其序列中的框架 所以RUN_1将包含一些图像集的第一帧,RUN_2第二帧和Run_3第三,我的模型的目标是这个顺序输出字的培训运行。

2
尝试使用TensorFlow预测财务时间序列数据
我是ML和TensorFlow的新手(大约几个小时前开始),我正尝试使用它来预测时间序列中的下几个数据点。我正在接受输入,并使用它来执行此操作: /----------- x ------------\ .-------------------------------. | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | '-------------------------------' \----------- y ------------/ 我以为我在做的是将x用作输入数据,将y用作该输入的期望输出,因此,给定0-6时,我可以得到1-7(尤其是7)。但是,当我使用x作为输入运行图时,得到的预测看起来更像x而不是y。 这是代码(基于本文和本文): import tensorflow as tf import numpy as np import matplotlib.pyplot as plot import pandas as pd import csv def load_data_points(filename): print("Opening CSV …

1
具有一维时间序列的Keras LSTM
我正在学习如何使用Keras,并使用Chollet的Python深度学习中的示例在标记数据集上取得了合理的成功。数据集是〜1000个时间序列,长度为3125,具有3个潜在类别。 我想超越基本的Dense层,该层为我提供了约70%的预测率,并且本书继续讨论LSTM和RNN层。 所有示例似乎都为每个时间序列使用了具有多个功能的数据集,因此我正在努力研究如何实现数据。 例如,如果我有1000x3125时间序列,如何将其输入到SimpleRNN或LSTM层中?我是否缺少有关这些层功能的一些基本知识? 当前代码: import pandas as pd import numpy as np import os from keras.models import Sequential from keras.layers import Dense from keras.layers import LSTM, Dropout, SimpleRNN, Embedding, Reshape from keras.utils import to_categorical from keras import regularizers from sklearn.model_selection import train_test_split import matplotlib.pyplot as plt def readData(): # …

3
具有任意数量的输入和输出的人工神经元网络(ANN)
我想使用ANN解决我的问题,但是问题是我的输入和输出节点号不固定。 我问了我的问题之前做了一些谷歌搜索,发现RNN可以帮助我解决我的问题。但是,我发现的所有示例都以某种方式定义了输入和输出节点的数量。 因此,我正在寻找一种策略,如何使其成为现实,或者至少是一些示例,在Keras或PyTorch中更可取。 有关我的问题的更多详细信息: 我有两个输入列表,其中第一个的长度是固定的,等于2,fe: in_1 = [2,2] 但是第二个列表的长度是灵活的,长度可以从3到inf,fe: in_2 = [1,1,2,2] 要么 in_2 = [1,1,1,2,2,2,3,3,3] 同样,输入列表彼此依赖。第一个列表显示输出列表的维度。因此,如果in_1 = [2,2],则意味着输出必须具有重塑为[2,2]形式的可能性。 目前,我正在考虑将两个输入列表合并为一个: in = in_1 + in_2 = [2, 2, 1, 1, 2, 2] 此外,输出与in_2列表fi的长度相同: 如果输入列表是: in_1 = [2, 2] in_2 = [1, 1, 2, 2] 输出应为: out = [1, 2, 1, …

3
脑电数据的递归(CNN)模型
我想知道如何在EEG环境中解释循环架构。具体来说,我将其视为循环CNN(与LSTM等架构相反),但也许它也适用于其他类型的循环网络 当我读到R-CNN时,通常会在图像分类上下文中对它们进行解释。通常将它们描述为“随着时间的推移学习”或“包括time-1对当前输入的影响” 当使用EEG数据时,这种解释/解释会变得非常混乱。在此处可以找到在 EEG数据上使用R-CNN的示例 想象一下,我有一些训练示例,每个示例都包含一个1x512数组。该阵列在512个连续的时间点捕获1个电极的电压读数。如果将其用作循环CNN的输入(使用1D卷积),则模型的循环部分实际上并没有捕获“时间”,对吗?(如先前讨论的说明/解释所暗示),因为在这种情况下,时间已经被数组的第二维捕获了 因此,通过这样的设置,网络的循环部分实际上允许我们对常规CNN无法(如果不是时间)进行建模吗? 在我看来,循环仅意味着进行卷积,将结果添加到原始输入中,然后再次进行卷积。重复执行x个重复步骤。这个过程实际上有什么好处?

5
LSTM或其他R的RNN软件包
我看到LSTM模型产生的莎士比亚文本产生了令人印象深刻的结果。我想知道是否存在R的LSTM软件包。我用Google搜索它,但只找到了Python和Julia的软件包。(也许存在一些性能问题,这说明了为什么这些程序比R更受青睐)您是否了解R的LSTM(或至少RNN)软件包?如果存在,有没有使用它们的教程?
10 r  neural-network  rnn 
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.