Questions tagged «machine-learning»

建立“随经验自动改进的计算机系统”的方法和原理。

1
具有多种功能的RNN
我对机器学习算法(基本的随机森林和线性回归类型的东西)有一些自学的知识。我决定分支并开始与Keras学习RNN。在查看大多数通常涉及库存预测的示例时,我没有找到实现多个功能的任何基本示例,除了第一列是功能日期,另一列是输出。我是否缺少关键的基本事物? 如果有人举个例子,我将不胜感激。 谢谢!

7
是否有免费的云服务来训练机器学习模型?
我想用大量的训练数据来训练一个深度模型,但是我的台式机没有能力用这些丰富的数据来训练这样的深度模型。 我想知道是否有任何免费的云服务可用于训练机器学习和深度学习模型? 我还想知道是否有云服务,在哪里可以跟踪培训结果,即使我没有连接到云,培训也将继续。




2
如何设置batch_size,steps_per epoch和验证步骤
我开始使用Keras学习CNN。我正在使用theano后端。 我不明白如何将值设置为: batch_size, 每个时代的步骤, 验证步骤。 batch_size如果我在训练集中有240,000个样本,在测试集中有80,000个,应将设置为,每个时期的步长和验证步骤的值是多少?

6
机器学习技术,可根据用户喜欢的Facebook网站估算用户的年龄
我有一个来自Facebook应用程序的数据库,我正在尝试使用机器学习根据用户喜欢的Facebook网站估算其年龄。 我的数据库具有三个关键特征: 我的训练集中的年龄分布(总共12,000个用户)偏向年轻用户(即,我有1157个27岁的用户和23个65岁的用户); 许多站点的点赞者不超过5个(我过滤掉了少于5个点赞的FB站点)。 功能比示例更多。 因此,我的问题是:您建议采取什么策略准备数据以进行进一步分析?我应该执行某种降维吗?在这种情况下,哪种ML方法最合适? 我主要使用Python,因此非常感谢Python特定的提示。

2
在Keras中合并两种不同的模型
我正在尝试将两个Keras模型合并为一个模型,但是我无法实现这一点。 例如在附图中,我想获取尺寸为8 的中间层,并将其用作模型(再次为尺寸8的)层输入,然后将模型和模型合并为一个模型。B 1 B A BA2A2A2B1B1B1BBBAAABBB 我正在使用功能模块独立创建模型和模型如何完成这项任务?乙AAABBB 注意:是模型的输入层,而是模型的输入层。A B 1 BA1A1A1AAAB1B1B1B乙B

5
AlphaGo的政策网络和价值网络之间的区别
我正在阅读有关Google AlphaGo的高级摘要(http://googleresearch.blogspot.co.uk/2016/01/alphago-mastering-ancient-game-of-go.html),并且遇到了“政策”一词。网络”和“价值网络”。在较高的层次上,我了解到策略网络用于建议行动,价值网络用于“减少搜索树的深度[并估计]每个位置的获胜者,而不是一直搜索到游戏结束。” 这两个网络对我来说似乎是多余的。如果策略网络未使用价值网络修剪其策​​略,该怎么做?显而易见,价值网络是一种深度学习神经网络。政策网络只是理论上的抽象,而不是实际的神经网络吗?价值网络的目标变量似乎是赢/输。策略网络是否有目标变量?如果是这样,那是什么?策略网络试图优化什么? 可以在以下位置找到《自然》杂志上发表的Google论文的完整pdf:https: //vk.com/doc-44016343_437229031?dl = 56ce06e325d42fbc72

4
Word2Vec用于命名实体识别
我正在寻找使用Google的word2vec实现来构建命名实体识别系统。我听说具有通过结构的反向传播的递归神经网络非常适合命名实体识别任务,但是我无法为该类型的模型找到像样的实现或像样的教程。因为我使用的是非典型语料库,所以NLTK和类似工具中的标准NER工具的效果非常差,看起来我必须训练自己的系统。 简而言之,有哪些资源可用于解决此类问题?是否有可用的标准递归神经网络实现?


4
随机森林过度拟合吗?
我一直在阅读有关随机森林的文章,但是我真的找不到关于过度拟合问题的明确答案。根据Breiman的原始论文,当增加森林中的树木数量时,它们不应过拟合,但似乎对此尚未达成共识。这使我对此问题颇为困惑。 也许比我更专业的人可以给我一个更具体的答案,或者为我指明正确的方向,以便更好地理解问题。


4
潜在功能的含义?
我正在学习推荐系统的矩阵分解,并且看到该词latent features出现得太频繁了,但我无法理解它的含义。我知道功能是什么,但我不了解潜在功能的概念。请解释一下吗?或者至少将我指向可以阅读的论文/地方?

4
使用整个数据集训练最终模型总是更好吗?
在训练,验证和测试机器学习偏好模型之后,一种常见的技术是使用完整的数据集(包括测试子集)来训练最终模型,以将其部署到例如产品上。 我的问题是:这样做是否总是最好的?如果性能实际上下降了怎么办? 例如,让我们假设在分类测试子集时模型得分约为65%的情况。这可能意味着要么模型训练不足,要么测试子集包含异常值。在后一种情况下,与他们一起训练最终模型会降低其性能,并且只有在部署模型后才能发现。 重新表述我的最初问题: 如果您曾经进行过一次模型演示,例如将其部署在昂贵的火箭实验上的嵌入式电子设备上,那么您是否会信任在最后一步中已通过测试子集重新训练的模型,而无需重新进行?对其新性能进行了测试?

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.