Questions tagged «machine-learning»

有关机器学习算法的实现问题。有关机器学习的一般问题应发布到其特定社区。

7
功能和标签有什么区别?
我正在关注有关机器学习基础的教程,并且提到某些东西可以是功能或标签。 据我所知,功能是正在使用的数据的属性。我不知道标签是什么,我知道单词的含义,但是我想知道它在机器学习的上下文中的含义。


6
如何在TensorFlow中应用梯度裁剪?
考虑示例代码。 我想知道如何在RNN上的该网络上应用梯度剪切,而梯度可能会爆炸。 tf.clip_by_value(t, clip_value_min, clip_value_max, name=None) 这是一个可以使用的示例,但是在哪里介绍呢?在RNN中 lstm_cell = rnn_cell.BasicLSTMCell(n_hidden, forget_bias=1.0) # Split data because rnn cell needs a list of inputs for the RNN inner loop _X = tf.split(0, n_steps, _X) # n_steps tf.clip_by_value(_X, -1, 1, name=None) 但这没有意义,因为张量_X是输入,而不是grad,要裁剪的内容是什么? 我是否需要为此定义自己的优化器,还是有一个更简单的选择?

5
如何在Keras中从HDF5文件加载模型?
如何在Keras中从HDF5文件加载模型? 我试过的 model = Sequential() model.add(Dense(64, input_dim=14, init='uniform')) model.add(LeakyReLU(alpha=0.3)) model.add(BatchNormalization(epsilon=1e-06, mode=0, momentum=0.9, weights=None)) model.add(Dropout(0.5)) model.add(Dense(64, init='uniform')) model.add(LeakyReLU(alpha=0.3)) model.add(BatchNormalization(epsilon=1e-06, mode=0, momentum=0.9, weights=None)) model.add(Dropout(0.5)) model.add(Dense(2, init='uniform')) model.add(Activation('softmax')) sgd = SGD(lr=0.1, decay=1e-6, momentum=0.9, nesterov=True) model.compile(loss='binary_crossentropy', optimizer=sgd) checkpointer = ModelCheckpoint(filepath="/weights.hdf5", verbose=1, save_best_only=True) model.fit(X_train, y_train, nb_epoch=20, batch_size=16, show_accuracy=True, validation_split=0.2, verbose = 2, callbacks=[checkpointer]) 上面的代码成功将最佳模​​型保存到名为weights.hdf5的文件中。然后,我要加载该模型。以下代码显示了我如何尝试这样做: model2 …

9
什么是机器学习?[关闭]
关闭。这个问题是题外话。它当前不接受答案。 想改善这个问题吗? 更新问题,使其成为Stack Overflow 的主题。 7年前关闭。 改善这个问题 什么是机器学习? 机器学习代码有什么作用? 当我们说机器学习时,它是修改自身的代码还是修改历史(数据库),其中将包含给定输入集的代码经验?

3
如何在keras中连接两层?
我有一个具有两层的神经网络的示例。第一层有两个参数,并有一个输出。第二个参数应接受一个参数作为第一层的结果,并附加一个参数。它看起来应该像这样: x1 x2 x3 \ / / y1 / \ / y2 因此,我创建了一个具有两层的模型,并尝试将它们合并,但它返回一个错误:The first layer in a Sequential model must get an "input_shape" or "batch_input_shape" argument.在line上result.add(merged)。 模型: first = Sequential() first.add(Dense(1, input_shape=(2,), activation='sigmoid')) second = Sequential() second.add(Dense(1, input_shape=(1,), activation='sigmoid')) result = Sequential() merged = Concatenate([first, second]) ada_grad = Adagrad(lr=0.1, epsilon=1e-08, …


4
价值迭代和策略迭代有什么区别?
在强化学习中,策略迭代和价值迭代有什么区别? 据我了解,在值迭代中,您使用Bellman方程来求解最优策略,而在策略迭代中,您随机选择一个策略π,并找到该策略的收益。 我的疑问是,如果您在PI中选择随机策略π,那么即使我们选择多个随机策略,也如何保证它是最佳策略。

3
什么是交叉熵?
我知道关于交叉熵是很多解释,但是我仍然很困惑。 仅仅是描述损失函数的一种方法吗?我们可以使用梯度下降算法通过损失函数找到最小值吗?

4
np.mean和tf.reduce_mean有什么区别?
在MNIST初学者教程中,有一条声明 accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float")) tf.cast基本上改变了对象的张量类型,但是tf.reduce_mean和之间有什么区别np.mean? 这是有关的文档tf.reduce_mean: reduce_mean(input_tensor, reduction_indices=None, keep_dims=False, name=None) input_tensor:张量减少。应为数字类型。 reduction_indices:要缩小的尺寸。如果None(默认)减小所有尺寸。 # 'x' is [[1., 1. ]] # [2., 2.]] tf.reduce_mean(x) ==> 1.5 tf.reduce_mean(x, 0) ==> [1.5, 1.5] tf.reduce_mean(x, 1) ==> [1., 2.] 对于一维矢量,它看起来像np.mean == tf.reduce_mean,但我不了解tf.reduce_mean(x, 1) ==> [1., 2.]。tf.reduce_mean(x, 0) ==> [1.5, 1.5]的意思是合理的,因为的意思是[1, 2]和[1, 2]是[1.5, 1.5],但是这是怎么回事tf.reduce_mean(x, 1)?

6
Python:tf-idf-cosine:查找文档相似性
我正在关注第1 部分和第2 部分中可用的教程。不幸的是,作者没有时间进行最后一节,涉及使用余弦相似度实际找到两个文档之间的距离。我在stackoverflow的以下链接的帮助下关注了本文中的示例,其中包括上述链接中提到的代码(只是为了使生活更轻松) from sklearn.feature_extraction.text import CountVectorizer from sklearn.feature_extraction.text import TfidfTransformer from nltk.corpus import stopwords import numpy as np import numpy.linalg as LA train_set = ["The sky is blue.", "The sun is bright."] # Documents test_set = ["The sun in the sky is bright."] # Query stopWords = stopwords.words('english') vectorizer …


2
鸡尾酒会算法SVD实现…在一行代码中?
在斯坦福大学的Andrew Ng在Coursera的机器学习入门演讲的幻灯片中,他给出了鸡尾酒会问题的以下一行八度音阶解决方案,因为音频源是由两个空间分开的麦克风录制的: [W,s,v]=svd((repmat(sum(x.*x,1),size(x,1),1).*x)*x'); 幻灯片的底部是“来源:Sam Roweis,Yair Weiss和Eero Simoncelli”,幻灯片的底部是“由Te-Won Lee提供的音频剪辑”。吴教授在影片中说: “因此,您可能会看这样的无监督学习,并问,'实施此过程有多复杂?” 似乎要构建此应用程序,似乎要进行音频处理,您将编写大量代码,或者链接到处理音频的一堆C ++或Java库中。处理音频的复杂程序:分离音频等,结果证明该算法可以完成您刚刚听到的操作,只需一行代码即可完成……如此处所示,这花费了研究人员很长时间因此,我并不是说这是一个简单的问题。但是事实证明,当您使用正确的编程环境时,许多学习算法实际上都是很短的程序。” 在视频讲座中播放的单独音频结果并不完美,但在我看来,这是惊人的。有人对那一行代码的性能有何见解?特别是,没有人知道参考文献来解释Te-Won Lee,Sam Roweis,Yair Weiss和Eero Simoncelli在那一行代码方面的工作吗? 更新 为了证明算法对麦克风分离距离的敏感性,下面的模拟(以八度为单位)将音调与两个空间分离的音调发生器分离。 % define model f1 = 1100; % frequency of tone generator 1; unit: Hz f2 = 2900; % frequency of tone generator 2; unit: Hz Ts = 1/(40*max(f1,f2)); % sampling period; unit: …

6
如何获取Tensorflow张量尺寸(形状)作为int值?
假设我有一个Tensorflow张量。如何获取张量的尺寸(形状)作为整数值?我知道有两种方法,tensor.get_shape()和tf.shape(tensor),但是我不能将形状值作为整int32数值。 例如,下面我创建了一个二维张量,我需要获取行数和列数,int32以便可以调用reshape()以创建shape张量(num_rows * num_cols, 1)。但是,该方法tensor.get_shape()返回值作为Dimension类型,而不是类型int32。 import tensorflow as tf import numpy as np sess = tf.Session() tensor = tf.convert_to_tensor(np.array([[1001,1002,1003],[3,4,5]]), dtype=tf.float32) sess.run(tensor) # array([[ 1001., 1002., 1003.], # [ 3., 4., 5.]], dtype=float32) tensor_shape = tensor.get_shape() tensor_shape # TensorShape([Dimension(2), Dimension(3)]) print tensor_shape # (2, 3) num_rows = tensor_shape[0] # ??? num_cols …

12
Twitter在Python中的情感分析[关闭]
关闭。此问题不符合堆栈溢出准则。它当前不接受答案。 想改善这个问题吗?更新问题,使其成为Stack Overflow的主题。 5年前关闭。 改善这个问题 我正在寻找文本情感分析(http://en.wikipedia.org/wiki/Sentiment_analysis)的开源实现,最好是python 。有谁熟悉我可以使用的开源实现? 我正在编写一个应用程序,该应用程序在Twitter上搜索某个搜索词,例如“ youtube”,并计算“快乐”推文与“悲伤”推文的数量。我正在使用Google的appengine,所以它在python中。我希望能够对来自Twitter的返回搜索结果进行分类,并且希望在python中进行分类。到目前为止,我还没有找到这样的情感分析器,特别是在python中。您熟悉我可以使用的这种开源实现吗?最好是已经在python中了,但是如果没有,希望我可以将其翻译成python。 请注意,我正在分析的文本非常简短,它们是推文。因此,理想地,此分类器针对此类短文本进行了优化。 顺便说一句,twitter确实在搜索中支持“ :)”和“ :(”运算符,其目的只是为了做到这一点,但是不幸的是,它们提供的分类并不是那么好,所以我想自己可以尝试一下。 谢谢! BTW,早期的演示是在这里和我至今的代码是在这里,我很愿意和任何有兴趣的开发者开源它。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.