Questions tagged «deep-learning»

机器学习研究的一个新领域,涉及用于学习数据的分层表示的技术,主要是通过深度神经网络(即具有两个或多个隐藏层的网络)完成的,但也与某种概率图形模型有关。

2
借助频谱图进行深度学习以进行声音识别
我正在研究使用频谱图对声音(例如动物的声音)进行分类的可能性。这个想法是使用深层卷积神经网络识别光谱图中的片段并输出一个(或多个)类标签。这不是一个新主意(例如,参见鲸鱼声音分类或音乐风格识别)。 我面临的问题是我有不同长度的声音文件,因此有不同大小的声谱图。到目前为止,我所见过的每种方法都使用固定大小的声音样本,但我不能这样做,因为我的声音文件可能长达10秒或2分钟。 例如,在开头有鸟声,在结尾有青蛙声(输出应为“ Bird,Frog”)。我当前的解决方案是向神经网络添加一个时间成分(创建更多的递归神经网络),但是我想暂时保持简单。有任何想法,链接,教程...吗?

1
我应该使用多少个LSTM细胞?
是否有关于我应使用的LSTM电池的最小,最大和“合理”数量的经验法则(或实际规则)?具体来说,我与TensorFlow和property 有关的BasicLSTMCell有关num_units。 请假设我有以下定义的分类问题: t - number of time steps n - length of input vector in each time step m - length of output vector (number of classes) i - number of training examples 例如,训练示例的数量应该大于: 4*((n+1)*m + m*m)*c c单元数在哪里?我基于此:如何计算LSTM网络的参数数量?据我了解,这应该给出参数的总数,该总数应少于训练示例的数量。
12 rnn  machine-learning  r  predictive-modeling  random-forest  python  language-model  sentiment-analysis  encoding  machine-learning  deep-learning  neural-network  dataset  caffe  classification  xgboost  multiclass-classification  unbalanced-classes  time-series  descriptive-statistics  python  r  clustering  machine-learning  python  deep-learning  tensorflow  machine-learning  python  predictive-modeling  probability  scikit-learn  svm  machine-learning  python  classification  gradient-descent  regression  research  python  neural-network  deep-learning  convnet  keras  python  tensorflow  machine-learning  deep-learning  tensorflow  python  r  bigdata  visualization  rstudio  pandas  pyspark  dataset  time-series  multilabel-classification  machine-learning  neural-network  ensemble-modeling  kaggle  machine-learning  linear-regression  cnn  convnet  machine-learning  tensorflow  association-rules  machine-learning  predictive-modeling  training  model-selection  neural-network  keras  deep-learning  deep-learning  convnet  image-classification  predictive-modeling  prediction  machine-learning  python  classification  predictive-modeling  scikit-learn  machine-learning  python  random-forest  sampling  training  recommender-system  books  python  neural-network  nlp  deep-learning  tensorflow  python  matlab  information-retrieval  search  search-engine  deep-learning  convnet  keras  machine-learning  python  cross-validation  sampling  machine-learning 

2
非图像非NLP任务的深度学习?
到目前为止,在计算机视觉或自然语言处理中有许多有趣的深度学习应用。 在其他更传统的领域中情况如何?例如,我有传统的社会人口统计学变量以及可能的大量实验室测量结果,并且希望预测某种疾病。如果我有很多观察,这将是深度学习应用程序吗?我认为如何在这里构建网络,我认为所有花哨的层(卷积层等)都没有必要?只是使它更深? 在我的特定数据集上,我尝试了一些常见的机器学习算法,例如随机森林,gbm等,但在准确性方面存在混合结果。我在图像识别方面的深度学习经验有限。


3
是否有适用于python的好的即用型语言模型?
我正在为一个应用程序制作原型,我需要一个语言模型来计算一些生成的句子的困惑度。 我可以随时使用经过训练的python语言模型吗?简单的东西 model = LanguageModel('en') p1 = model.perplexity('This is a well constructed sentence') p2 = model.perplexity('Bunny lamp robert junior pancake') assert p1 < p2 我看过一些框架,但找不到我想要的。我知道我可以使用类似: from nltk.model.ngram import NgramModel lm = NgramModel(3, brown.words(categories='news')) 这在Brown Corpus上使用了很好的图林概率分布,但是我正在一些大型数据集(例如1b单词数据集)上寻找精心设计的模型。我可以真正相信一般领域的结果(不仅是新闻)
11 python  nlp  language-model  r  statistics  linear-regression  machine-learning  classification  random-forest  xgboost  python  sampling  data-mining  orange  predictive-modeling  recommender-system  statistics  dimensionality-reduction  pca  machine-learning  python  deep-learning  keras  reinforcement-learning  neural-network  image-classification  r  dplyr  deep-learning  keras  tensorflow  lstm  dropout  machine-learning  sampling  categorical-data  data-imputation  machine-learning  deep-learning  machine-learning-model  dropout  deep-network  pandas  data-cleaning  data-science-model  aggregation  python  neural-network  reinforcement-learning  policy-gradients  r  dataframe  dataset  statistics  prediction  forecasting  r  k-means  python  scikit-learn  labels  python  orange  cloud-computing  machine-learning  neural-network  deep-learning  rnn  recurrent-neural-net  logistic-regression  missing-data  deep-learning  autoencoder  apache-hadoop  time-series  data  preprocessing  classification  predictive-modeling  time-series  machine-learning  python  feature-selection  autoencoder  deep-learning  keras  tensorflow  lstm  word-embeddings  predictive-modeling  prediction  machine-learning-model  machine-learning  classification  binary  theory  machine-learning  neural-network  time-series  lstm  rnn  neural-network  deep-learning  keras  tensorflow  convnet  computer-vision 

1
使用训练有素的CNN分类器并将其应用于其他图像数据集
你会如何优化一个预先训练 neural network将它应用到一个单独的问题?您是否将更多层添加到预训练模型中并在数据集上进行测试? 例如,如果任务是使用CNN对墙纸组进行分类,那么我敢肯定,即使是猫和狗的图像分类器,也无法直接对经过图像猫和狗训练的预训练网络进行分类。

2
我们什么时候说数据集不可分类?
我已经多次分析过一个数据集,在该数据集上我实际上无法进行任何分类。为了查看是否可以得到分类器,我通常使用以下步骤: 根据数值生成标签的箱形图。 将维数减少到2或3,以查看类是否可分离,有时也尝试使用LDA。 强制尝试适合SVM和随机森林,并查看特征的重要性,以查看特征是否有意义。 尝试更改类和欠采样和过采样等技术的平衡,以检查类不平衡是否可能成为问题。 我可以想到很多其他方法,但是还没有尝试过。有时我知道这些功能不好,并且与我们试图预测的标签完全无关。然后,我根据业务直觉结束练习,得出结论,我们需要更好的功能或完全不同的标签。 我的问题是数据科学家如何报告无法使用这些功能进行分类。是否有任何统计方法可以报告此问题或首先将数据拟合为不同算法,然后查看验证指标是最佳选择?



2
关于卷积网络偏差的问题
我试图找出CNN需要多少权重和偏见。 假设我有一个(3,32,32)图像,并想应用(32,5,5)滤镜。对于每个功能图,我有5x5的权重,所以我应该有3 x(5x5)x 32的参数。现在,我需要添加偏见。我相信我只有(3 x(5x5)+ 1)x 32个参数,因此所有颜色(RGB)的偏差都一样吗? 它是否正确?当我使用不同的权重时,是否在每个图像的深度(在本例中为3)上保持相同的偏差?这是为什么?


4
机器学习与深度学习
我对“机器学习”和“深度学习”这两个术语之间的区别感到困惑。我已经用Google搜索并阅读了许多文章,但是对我来说仍然不是很清楚。 Tom Mitchell对机器学习的一个已知定义是: 据说一个计算机程序可以从经验E中学习有关某类任务T和性能度量P的信息,如果计算机对T中任务的性能(由P度量)随经验E的提高而有所提高。 如果我将猫和狗分类为taks T的图像分类问题,从这个定义中我了解到,如果我给ML算法提供一堆狗和猫的图像(经验E),则ML算法可以学习如何区分新图像是狗还是猫(前提是性能指标P定义明确)。 然后是深度学习。我了解深度学习是机器学习的一部分,并且上述定义成立。任务T的性能随经验E的提高而提高。到目前为止一切都很好。 该博客指出,机器学习和深度学习之间是有区别的。根据Adil的不同,在(传统)机器学习中,功能必须是手工制作的,而在深度学习中,功能是必须学习的。下图阐明了他的说法。 我对(传统)机器学习中的功能必须手工制作感到困惑。根据汤姆·米切尔(Tom Mitchell)的上述定义,我认为可以从经验E和性能P了解这些功能。机器学习还可以学到什么? 在深度学习中,我了解到,根据经验,您将学习功能以及它们之间的相互关系以提高性能。我是否可以得出结论,在机器学习中功能必须是手工制作的,所学到的是功能的组合?还是我想念其他东西?

3
最佳科学计算语言[关闭]
已关闭。这个问题需要更加集中。它当前不接受答案。 想改善这个问题吗?更新问题,使其仅通过编辑此帖子来关注一个问题。 5年前关闭。 似乎大多数语言都具有一定数量的科学计算库。 Python有 Scipy Rust 有 SciRust C++有几个包括ViennaCL和Armadillo Java具有Java Numerics和Colt其他几个 且不说像语言R和Julia明确的科学计算而设计。 有这么多种选择,您如何选择适合任务的最佳语言?另外,哪种语言的性能最高?Python并且R似乎在该领域具有最大的吸引力,但从逻辑上讲,编译语言似乎是一个更好的选择。会有什么表现胜过Fortran?此外编译语言往往有GPU加速,而解释性语言如R并Python没有。选择一种语言时应该考虑什么?哪些语言可以在效用和性能之间取得最佳平衡?还有我错过的具有重要科学计算资源的语言吗?
10 efficiency  statistics  tools  knowledge-base  machine-learning  neural-network  deep-learning  optimization  hyperparameter  machine-learning  time-series  categorical-data  logistic-regression  python  visualization  bigdata  efficiency  classification  binary  svm  random-forest  logistic-regression  data-mining  sql  experiments  bigdata  efficiency  performance  scalability  distributed  bigdata  nlp  statistics  education  knowledge-base  definitions  machine-learning  recommender-system  evaluation  efficiency  algorithms  parameter  efficiency  scalability  sql  statistics  visualization  knowledge-base  education  machine-learning  r  python  r  text-mining  sentiment-analysis  machine-learning  machine-learning  python  neural-network  statistics  reference-request  machine-learning  data-mining  python  classification  data-mining  bigdata  usecase  apache-hadoop  map-reduce  aws  education  feature-selection  machine-learning  machine-learning  sports  data-formats  hierarchical-data-format  bigdata  apache-hadoop  bigdata  apache-hadoop  python  visualization  knowledge-base  classification  confusion-matrix  accuracy  bigdata  apache-hadoop  bigdata  efficiency  apache-hadoop  distributed  machine-translation  nlp  metadata  data-cleaning  text-mining  python  pandas  machine-learning  python  pandas  scikit-learn  bigdata  machine-learning  databases  clustering  data-mining  recommender-system 

3
尽早停止验证损失或准确性?
我目前正在训练神经网络,我无法决定使用哪种方法来实现我的“早期停止”标准:验证损失或在验证集上计算出的诸如准确性/ f1score / auc /之类的指标。 在我的研究中,我发现捍卫这两种观点的文章。Keras似乎默认不接受验证损失,但是对于相反的方法,我也遇到了令人信服的答案(例如here)。 是否有人指示何时最好使用验证损失以及何时使用特定指标?

1
使用RNN(LSTM)进行手势识别系统
我正在尝试构建用于对ASL(美国手语)手势进行分类的手势识别系统,因此我的输入应该是来自摄像机或视频文件的帧序列,然后它检测到该序列并将其映射到对应的帧课堂(睡眠,帮助,饮食,跑步等) 事情是我已经建立了一个类似的系统,但是对于静态图像(不包括运动),它仅在构建CNN是直截了当的任务时才用于翻译字母,这是有用的,因为手不会动太多,并且数据集结构也很容易管理,因为我正在使用keras,也许仍然打算这样做(每个文件夹都包含一组用于特定符号的图像,并且文件夹的名称是该符号的类名,例如:A,B,C ,..) 我的问题是,如何组织我的数据集以便能够将其输入到keras中的RNN中,以及应使用哪些特定函数有效地训练我的模型和任何必要的参数,有些人建议使用TimeDistributed类,但我不这样做对如何使用它有利于我有一个清晰的想法,并考虑到网络中每一层的输入形状。 同样考虑到我的数据集将由图像组成,我可能需要一个卷积层,将conv层组合到LSTM层中是怎么可行的(我的意思是代码)。 例如,我想象我的数据集是这样的 名为“运行”的文件夹包含3个文件夹1、2和3,每个文件夹对应于其序列中的框架 所以RUN_1将包含一些图像集的第一帧,RUN_2第二帧和Run_3第三,我的模型的目标是这个顺序输出字的培训运行。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.