Questions tagged «neural-network»

人工神经网络(ANN)由“神经元”组成-模仿生物神经元特性的编程结构。神经元之间的一组加权连接允许信息通过网络传播以解决人工智能问题,而无需网络设计人员拥有真实系统的模型。

2
如何为神经网络准备/增强图像?
我想使用神经网络进行图像分类。我将从训练有素的CaffeNet开始,然后为我的应用程序对其进行训练。 我应该如何准备输入图像? 在这种情况下,所有图像都属于同一物体,但具有变化(请考虑:质量控制)。它们的比例/分辨率/距离/照明条件略有不同(很多情况下我不知道比例)。同样,在每个图像中,目标对象周围都有一个区域(已知),网络应该忽略该区域。 我可以(例如)裁剪每个图像的中心,以确保其中包含感兴趣对象的一部分而没有忽略区域。但这似乎会浪费掉信息,而且结果的范围也不尽相同(可能是1.5倍的变化)。 数据集扩充 我听说过通过随机裁剪/镜像/等方式创建更多训练数据,是否有标准方法?它对分类器的准确性有何改善?

3
“同等翻译”和“同等翻译”有什么区别
我很难理解翻译的等变量和翻译的不变量之间的区别。 在《深度学习》一书中。麻省理工学院出版社,2016年(I. Goodfellow,A。Courville和Y. Bengio),在卷积网络上可以找到: [...]参数共享的特定形式导致该图层具有一个称为“ 等值转换” 的属性 [...]池有助于使代表成为大致不变的输入小的平移 它们之间是否有区别,或者这些术语可以互换使用?


1
`Keras`的`Dense`和`TimeDistributedDense`之间的区别
我仍然感到困惑之间的区别Dense和TimeDistributedDense的Keras,即使已经有一些类似的问题问在这里和这里。人们在讨论很多,但没有共同商定的结论。 即使在这里,@fchollet指出: TimeDistributedDenseDense对3D张量的每个时间步应用相同(完全连接)的操作。 我仍然需要详细说明它们之间的确切区别。

1
什么是用于多类分类的最佳Keras模型?
我正在研究,如果需求三个赛事冠军的分类一个=( ,win,)drawlose WINNER LEAGUE HOME AWAY MATCH_HOME MATCH_DRAW MATCH_AWAY MATCH_U2_50 MATCH_O2_50 3 13 550 571 1.86 3.34 4.23 1.66 2.11 3 7 322 334 7.55 4.1 1.4 2.17 1.61 我当前的模型是: def build_model(input_dim, output_classes): model = Sequential() model.add(Dense(input_dim=input_dim, output_dim=12, activation=relu)) model.add(Dropout(0.5)) model.add(Dense(output_dim=output_classes, activation='softmax')) model.compile(loss='categorical_crossentropy', optimizer='adadelta') return model 我不确定这是否适用于多类别分类 二进制分类的最佳设置是什么? 编辑:#2-那样吗? model.add(Dense(input_dim=input_dim, …

7
为什么应重新整理数据以进行机器学习任务
在机器学习任务中,通常将数据混洗并规范化。标准化的目的很明确(具有相同范围的特征值)。但是,经过很多努力之后,我没有发现任何改组数据的有价值的原因。 我在这里阅读了这篇文章,讨论了何时需要重新整理数据,但是不清楚为什么我们应该重新整理数据。此外,我经常在诸如Adam或SGD之类的算法中看到我们需要批量梯度下降(应将数据分离为小批量,并且必须指定批量大小)。根据这篇文章,至关重要的是将每个时期的数据混排以使每个批次具有不同的数据。因此,也许数据被改组并且更重要地被更改。 我们为什么要做这个?

1
为什么xgboost比sklearn GradientBoostingClassifier快得多?
我正在尝试通过50个具有100个数字特征的示例训练一个梯度提升模型。XGBClassifier我的机器43秒内把手500棵树,而GradientBoostingClassifier只处理10棵(!)以1分2秒:(我没有理会试图种植500棵树,因为它会需要几个小时。我使用的是相同的learning_rate,并max_depth设置, 见下文。 是什么使XGBoost如此之快?它是否使用了sklearn家伙不知道的用于梯度增强的新颖实现方式?还是“偷工减料”并种植浅树? ps我知道这个讨论:https : //www.kaggle.com/c/higgs-boson/forums/t/10335/xgboost-post-competition-survey,但是那里找不到答案... XGBClassifier(base_score=0.5, colsample_bylevel=1, colsample_bytree=1, gamma=0, learning_rate=0.05, max_delta_step=0, max_depth=10, min_child_weight=1, missing=None, n_estimators=500, nthread=-1, objective='binary:logistic', reg_alpha=0, reg_lambda=1, scale_pos_weight=1, seed=0, silent=True, subsample=1) GradientBoostingClassifier(init=None, learning_rate=0.05, loss='deviance', max_depth=10, max_features=None, max_leaf_nodes=None, min_samples_leaf=1, min_samples_split=2, min_weight_fraction_leaf=0.0, n_estimators=10, presort='auto', random_state=None, subsample=1.0, verbose=0, warm_start=False)
29 scikit-learn  xgboost  gbm  data-mining  classification  data-cleaning  machine-learning  reinforcement-learning  data-mining  bigdata  dataset  nlp  language-model  stanford-nlp  machine-learning  neural-network  deep-learning  randomized-algorithms  machine-learning  beginner  career  xgboost  loss-function  neural-network  software-recommendation  naive-bayes-classifier  classification  scikit-learn  feature-selection  r  random-forest  cross-validation  data-mining  python  scikit-learn  random-forest  churn  python  clustering  k-means  machine-learning  nlp  sentiment-analysis  machine-learning  programming  python  scikit-learn  nltk  gensim  visualization  data  csv  neural-network  deep-learning  descriptive-statistics  machine-learning  supervised-learning  text-mining  orange  data  parameter-estimation  python  pandas  scraping  r  clustering  k-means  unsupervised-learning 

4
后续的卷积层如何工作?
这个问题归结为“卷积层如何正确工作。 假设我有一个灰度图像。因此图像只有一个通道。在第一层中,我使用过滤器和填充进行卷积。然后我有另一个卷积层,其中有卷积和过滤器。我有多少个特征图?3 × 3 k 1 5 × 5 k 2n × 米n×mn \times m3 × 33×33\times 3ķ1个k1k_15 × 55×55 \times 5ķ2k2k_2 1型卷积 第一层被执行。之后,我有特征图(每个过滤器一个)。这些中的每一个的大小均为。通过从填充的输入图像中提取像素来创建每个像素。 Ñ × 米3 ⋅ 3 = 9ķ1个k1k_1n × 米n×mn \times m3 ⋅ 3 = 93⋅3=93 \cdot 3 = 9 然后第二层被应用。每个单个过滤器都分别应用于每个特征图。这将为每个特征图生成特征图。因此,第二层之后有特征图。每个新要素地图的每个像素都是通过从以前获取填充要素地图的 “像素”而创建的。ķ 1 ķ 1 × ķ …

2
什么是地面真理
在机器学习的背景下,我看到了“ 地面真理 ”一词经常使用。我进行了很多搜索,并在Wikipedia中找到以下定义: 在机器学习中,术语“地面真理”是指有监督学习技术的训练集分类的准确性。在统计模型中使用它来证明或否定研究假设。术语“地面实况调查”是指为此测试收集适当的客观(可证明)数据的过程。与黄金标准比较。 贝叶斯垃圾邮件过滤是监督学习的常见示例。在该系统中,人工学习了垃圾邮件和非垃圾邮件之间的区别。这取决于用于训练算法的消息的地面真相-地面真相中的错误将与垃圾邮件/非垃圾邮件裁决中的错误相关。 关键是我真的无法理解它的意思。是,标签用于每个数据对象或目标函数赋予一个标签给每个数据对象,或者也许别的东西吗?

3
在CPU和GPU之间进行选择以训练神经网络
我已经看到了有关GPU“开销”的讨论,对于“小型”网络,在CPU(或CPU网络)上进行训练实际上可能比GPU更快。 什么是“小”? 例如,具有100个隐藏单元的单层MLP是否会“很小”? 对于循环架构,我们对“小”的定义会改变吗? 在决定在CPU或GPU上进行训练时,还应该考虑其他标准吗? 编辑1: 我刚刚找到了一篇博客文章(可能已过时?它是从2014年开始的): “ ...大多数网卡仅适用于已向CPU注册的内存,因此两个节点之间的GPU到GPU的传输将是这样的:GPU 1到CPU 1到网卡1到网卡2到CPU 2到GPU2。这意味着,如果选择一个速度较慢的网卡,则在一台计算机上可能无法实现加速;即使使用快速网卡,如果群集很大,相比时,甚至连GPU都无法获得加速。对CPU而言,因为GPU的工作速度太快,以至于网卡无法跟上它们的步伐。 这就是为什么许多大公司(例如Google和Microsoft)使用CPU而不是GPU群集来训练其大型神经网络的原因。” 因此,根据本文的观点,使用CPU可能更快。还是这样吗? 编辑2:是的,该博客文章可能非常过时,因为: 现在看来,节点内的GPU是通过PCIe总线连接的,因此通信速度约为6GiB / s。(例如:https : //www.youtube.com/watch?v=el1iSlP1uOs,大约需要35分钟)。发言者暗示这比从GPU1到CPU再到GPU2快。这意味着网卡不再是瓶颈。

4
神经网络解析字符串数据?
因此,我才刚刚开始学习神经网络如何操作以识别模式并对输入进行分类,并且我已经看到了人工神经网络如何解析图像数据并对图像进行分类(使用convnetjs进行演示),以及其中的关键将对图像进行降采样,每个像素将一个输入神经元刺激到网络中。 但是,我是否想用字符串输入来解决问题?我得到的用例是用户观看过的电影的“推荐引擎”。电影有很多字符串数据(标题,情节,标签),我可以想象将文本“缩减采样”到描述该电影的几个关键词,但是即使我解析出描述该电影的前五个词,认为我需要每个英语单词都需要输入神经元才能比较一组电影吗?我可以将输入神经元限制为仅用于集合中的单词,但是随后它可以通过添加新电影(用户以新词观看新电影)来成长/学习吗?我见过的大多数库都不允许在训练系统后添加新的神经元? 是否存在将字符串/单词/字符数据映射到神经网络输入的标准方法?还是神经网络真的不是像这样解析字符串数据的正确工具(哪种是更好的字符串数据模式匹配工具?)?

1
具有多种功能的RNN
我对机器学习算法(基本的随机森林和线性回归类型的东西)有一些自学的知识。我决定分支并开始与Keras学习RNN。在查看大多数通常涉及库存预测的示例时,我没有找到实现多个功能的任何基本示例,除了第一列是功能日期,另一列是输出。我是否缺少关键的基本事物? 如果有人举个例子,我将不胜感激。 谢谢!

7
是否有免费的云服务来训练机器学习模型?
我想用大量的训练数据来训练一个深度模型,但是我的台式机没有能力用这些丰富的数据来训练这样的深度模型。 我想知道是否有任何免费的云服务可用于训练机器学习和深度学习模型? 我还想知道是否有云服务,在哪里可以跟踪培训结果,即使我没有连接到云,培训也将继续。

1
Keras如何计算准确性?
Keras如何从类别概率计算准确性?假设,例如,测试集中有100个样本,它们可以属于两个类别之一。我们也有一个类概率列表。Keras使用什么阈值将样本分配给两个类别中的任何一个?


By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.