Questions tagged «machine-learning»

建立“随经验自动改进的计算机系统”的方法和原理。



4
机器学习与深度学习
我对“机器学习”和“深度学习”这两个术语之间的区别感到困惑。我已经用Google搜索并阅读了许多文章,但是对我来说仍然不是很清楚。 Tom Mitchell对机器学习的一个已知定义是: 据说一个计算机程序可以从经验E中学习有关某类任务T和性能度量P的信息,如果计算机对T中任务的性能(由P度量)随经验E的提高而有所提高。 如果我将猫和狗分类为taks T的图像分类问题,从这个定义中我了解到,如果我给ML算法提供一堆狗和猫的图像(经验E),则ML算法可以学习如何区分新图像是狗还是猫(前提是性能指标P定义明确)。 然后是深度学习。我了解深度学习是机器学习的一部分,并且上述定义成立。任务T的性能随经验E的提高而提高。到目前为止一切都很好。 该博客指出,机器学习和深度学习之间是有区别的。根据Adil的不同,在(传统)机器学习中,功能必须是手工制作的,而在深度学习中,功能是必须学习的。下图阐明了他的说法。 我对(传统)机器学习中的功能必须手工制作感到困惑。根据汤姆·米切尔(Tom Mitchell)的上述定义,我认为可以从经验E和性能P了解这些功能。机器学习还可以学到什么? 在深度学习中,我了解到,根据经验,您将学习功能以及它们之间的相互关系以提高性能。我是否可以得出结论,在机器学习中功能必须是手工制作的,所学到的是功能的组合?还是我想念其他东西?

4
数据集大小的过度拟合/不足拟合
在下图中, x轴=> 数据集大小 y轴=> 交叉验证得分 红线用于培训数据 绿线用于测试数据 在我所指的教程中,作者说红线和绿线重叠的点表示, 收集更多数据不太可能提高泛化性能,并且我们处于一个可能无法适应数据的区域。因此,尝试使用容量更大的模型是有意义的 我不太理解粗体字的含义以及它的发生方式。 感谢任何帮助。



3
最佳科学计算语言[关闭]
已关闭。这个问题需要更加集中。它当前不接受答案。 想改善这个问题吗?更新问题,使其仅通过编辑此帖子来关注一个问题。 5年前关闭。 似乎大多数语言都具有一定数量的科学计算库。 Python有 Scipy Rust 有 SciRust C++有几个包括ViennaCL和Armadillo Java具有Java Numerics和Colt其他几个 且不说像语言R和Julia明确的科学计算而设计。 有这么多种选择,您如何选择适合任务的最佳语言?另外,哪种语言的性能最高?Python并且R似乎在该领域具有最大的吸引力,但从逻辑上讲,编译语言似乎是一个更好的选择。会有什么表现胜过Fortran?此外编译语言往往有GPU加速,而解释性语言如R并Python没有。选择一种语言时应该考虑什么?哪些语言可以在效用和性能之间取得最佳平衡?还有我错过的具有重要科学计算资源的语言吗?
10 efficiency  statistics  tools  knowledge-base  machine-learning  neural-network  deep-learning  optimization  hyperparameter  machine-learning  time-series  categorical-data  logistic-regression  python  visualization  bigdata  efficiency  classification  binary  svm  random-forest  logistic-regression  data-mining  sql  experiments  bigdata  efficiency  performance  scalability  distributed  bigdata  nlp  statistics  education  knowledge-base  definitions  machine-learning  recommender-system  evaluation  efficiency  algorithms  parameter  efficiency  scalability  sql  statistics  visualization  knowledge-base  education  machine-learning  r  python  r  text-mining  sentiment-analysis  machine-learning  machine-learning  python  neural-network  statistics  reference-request  machine-learning  data-mining  python  classification  data-mining  bigdata  usecase  apache-hadoop  map-reduce  aws  education  feature-selection  machine-learning  machine-learning  sports  data-formats  hierarchical-data-format  bigdata  apache-hadoop  bigdata  apache-hadoop  python  visualization  knowledge-base  classification  confusion-matrix  accuracy  bigdata  apache-hadoop  bigdata  efficiency  apache-hadoop  distributed  machine-translation  nlp  metadata  data-cleaning  text-mining  python  pandas  machine-learning  python  pandas  scikit-learn  bigdata  machine-learning  databases  clustering  data-mining  recommender-system 

3
尽早停止验证损失或准确性?
我目前正在训练神经网络,我无法决定使用哪种方法来实现我的“早期停止”标准:验证损失或在验证集上计算出的诸如准确性/ f1score / auc /之类的指标。 在我的研究中,我发现捍卫这两种观点的文章。Keras似乎默认不接受验证损失,但是对于相反的方法,我也遇到了令人信服的答案(例如here)。 是否有人指示何时最好使用验证损失以及何时使用特定指标?

3
如何使用不固定的分类数据进行分类?
我对分类数据和数值数据都有分类问题。我面临的问题是我的分类数据不固定,这意味着我要预测其标签的新候选者可能具有一个新类别,而该类别之前没有被观察到。 例如,如果我的分类数据为sex,则无论如何female,唯一可能的标签将是male和other。但是,我的分类变量是city这样的,以至于我试图预测的人可能拥有一个我的分类器从未见过的新城市。 我想知道是否有一种方法可以按照这些术语进行分类,或者是否应该考虑这些新的分类数据再次进行培训。

5
无监督图像分割
我正在尝试实现一种算法,其中给定一个在平面表上具有多个对象的图像,期望的是每个对象的分割蒙版的输出。与CNN不同,这里的目标是在陌生的环境中检测物体。解决此问题的最佳方法是什么?另外,在线上有任何实施示例吗? 编辑:很抱歉,问题可能有点误导。我所说的“陌生环境”的意思是算法可能不知道对象。该算法不需要了解对象是什么,而应该仅检测对象。我应该如何解决这个问题?

2
尝试使用TensorFlow预测财务时间序列数据
我是ML和TensorFlow的新手(大约几个小时前开始),我正尝试使用它来预测时间序列中的下几个数据点。我正在接受输入,并使用它来执行此操作: /----------- x ------------\ .-------------------------------. | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | '-------------------------------' \----------- y ------------/ 我以为我在做的是将x用作输入数据,将y用作该输入的期望输出,因此,给定0-6时,我可以得到1-7(尤其是7)。但是,当我使用x作为输入运行图时,得到的预测看起来更像x而不是y。 这是代码(基于本文和本文): import tensorflow as tf import numpy as np import matplotlib.pyplot as plot import pandas as pd import csv def load_data_points(filename): print("Opening CSV …

1
什么是AlphaGo Zero中的“新型强化学习算法”?
由于某种原因,尽管AlphaGo Zero取得了令人难以置信的效果,但它却没有像原始的AlphaGo那样受到广泛的宣传。从头开始,它已经击败了AlphaGo Master,并通过了许多其他基准测试。更令人难以置信的是,它已经在40天之内完成了。Google称其为“世界上最好的Go播放器”。 DeepMind声称这是“强化学习的新形式”-这种技术真的新颖吗?还是有其他时间使用过这种技术-如果是,那么他们的结果是什么?我认为我所谈论的要求是:1)没有人为干预,并且2)没有历史性的发挥,但是这些都是灵活的。 这似乎是一个类似的问题,但所有答案似乎都始于AlphaGo Zero是此类产品的第一个假设。

2
为什么在我的GPU上进行培训需要这么长时间?
细节: GPU:GTX 1080 训练:约110万张属于10个类别的图像 验证:约15万张属于10类的图像 每个纪元时间:〜10小时 我已经设置了CUDA,cuDNN和Tensorflow(以及Tensorflow GPU)。 我不认为我的模型这么复杂,每个纪元需要10个小时。我什至检查了我的GPU是否是问题所在,但不是。 培训时间是由于完全连接的层吗? 我的模特: model = Sequential() model.add() model.add(Conv2D(64, (3, 3), padding="same", strides=2)) model.add(Activation('relu')) model.add(Dropout(0.25)) model.add(Conv2D(64, (3, 3), padding="same", strides=2)) model.add(Activation('relu')) model.add(Dropout(0.25)) model.add(Conv2D(32, (3, 3))) model.add(Activation('relu')) model.add(MaxPooling2D(pool_size=(3, 3), strides=2)) model.add(Flatten()) model.add(Dense(256)) model.add(Activation('relu')) model.add(Dense(4096)) model.add(Activation('relu')) model.add(Dense(10)) model.add(Activation('softmax')) model.summary() opt = keras.optimizers.rmsprop(lr=0.0001, decay=1e-6) model.compile(loss='categorical_crossentropy', optimizer=opt, …

2
如何检查死亡的鲁鲁神经元
背景:在使神经网络适应relu激活的同时,我发现有时预测变得接近恒定。我相信这是由于如本文所述在训练过程中神经元神经元死亡。(神经网络中的“垂死的ReLU”问题是什么?) 问题:我希望做的是在代码本身中实现检查,以检查神经元是否死亡。之后,如果需要,代码可以重新调整网络。 因此,检查死亡神经元的最佳条件是什么?目前,我正在考虑将预测中的低方差作为一个标准进行检查。 如果有帮助,即时通讯使用keras。

3
脑电数据的递归(CNN)模型
我想知道如何在EEG环境中解释循环架构。具体来说,我将其视为循环CNN(与LSTM等架构相反),但也许它也适用于其他类型的循环网络 当我读到R-CNN时,通常会在图像分类上下文中对它们进行解释。通常将它们描述为“随着时间的推移学习”或“包括time-1对当前输入的影响” 当使用EEG数据时,这种解释/解释会变得非常混乱。在此处可以找到在 EEG数据上使用R-CNN的示例 想象一下,我有一些训练示例,每个示例都包含一个1x512数组。该阵列在512个连续的时间点捕获1个电极的电压读数。如果将其用作循环CNN的输入(使用1D卷积),则模型的循环部分实际上并没有捕获“时间”,对吗?(如先前讨论的说明/解释所暗示),因为在这种情况下,时间已经被数组的第二维捕获了 因此,通过这样的设置,网络的循环部分实际上允许我们对常规CNN无法(如果不是时间)进行建模吗? 在我看来,循环仅意味着进行卷积,将结果添加到原始输入中,然后再次进行卷积。重复执行x个重复步骤。这个过程实际上有什么好处?

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.