Questions tagged «machine-learning»

机器学习算法可建立训练数据模型。术语“机器学习”的定义模糊不清;它包括所谓的统计学习,强化学习,无监督学习等。始终添加更多特定标签。

5
您建议使用哪种编程语言来原型化机器学习问题?
当前在Octave中工作,但是由于文档不佳,进度非常慢。 哪种语言易于学习和使用,并且有充分的文献记载来解决机器学习问题?我希望在一个小的数据集(成千上万的示例)上建立原型,因此速度并不重要。 编辑:我正在开发一个推荐引擎。因此,我对使用正则化线性回归,神经网络,SVN或协作过滤感兴趣。

2
ML中的softmax函数与热力学中的玻耳兹曼分布之间的联系有多深?
softmax函数通常在神经网络中用于将实数转换为概率,它与Boltzmann分布(在热力学中在给定温度T时,在整个能量平衡中,处于热平衡状态的粒子的概率分布)具有相同的函数。 我可以看到一些明显的启发性原因,这是可行的: 无论输入值是否为负,softmax都会输出正值,总和为1。 它总是可区分的,对于反向传播很方便。 它具有一个“温度”参数,用于控制网络对较小值的宽容度(当T很大时,所有结果均可能发生,当T很小时,仅选择输入最大的值)。 出于实际原因,玻尔兹曼函数是否仅用作softmax,还是与热力学/统计物理学有更深的联系?


1
雅可比因子导致的不同概率密度变换
在Bishop的模式识别和机器学习中,在引入概率密度之后,我读了以下内容:p(x∈(a,b))=∫bap(x)dxp(x∈(a,b))=∫abp(x)dxp(x\in(a,b))=\int_a^bp(x)\textrm{d}x 在变量的非线性变化下,由于雅可比因子,概率密度与简单函数的变换不同。例如,如果我们考虑变量,则函数变为 。现在考虑 相对于新变量对应于密度的概率密度,其中满足表示和是不同密度的事实。观测落在范围将用于的小值 ,被变换成的范围内x=g(y)x=g(y)x = g(y)f(x)f(x)f(x)f~(y)=f(g(y))f~(y)=f(g(y))\tilde{f}(y) = f(g(y))px(x)px(x)p_x(x)py(y)py(y)p_y(y)yyypx(x)px(x)p_x(x)py(y)py(y)p_y(y)(x,x+δx)(x,x+δx)(x, x + \delta x)δxδx\delta x(y,y+δy(y,y+δy(y, y + \delta y),其中 px(x)δx≃py(y)δypx(x)δx≃py(y)δyp_x(x)\delta x \simeq p_y(y)δy,因此py(y)=px(x)|dxdy|=px(g(y))|g′(y)|py(y)=px(x)|dxdy|=px(g(y))|g′(y)|p_y(y) = p_x(x) |\frac{dx}{dy}| = p_x(g(y)) | g\prime (y) |。 雅可比因子是什么?所有事物的确切含义(可能是定性)是什么?Bishop说,此属性的结果是,概率密度最大值的概念取决于变量的选择。这是什么意思? 对我来说,这有点出乎意料(考虑在介绍章节中)。我会感谢一些提示,谢谢!


1
如何使用线性函数逼近将权重拟合到Q值
在强化学习中,当存在较大的状态空间时,通常使用线性函数逼近。(当查找表变得不可行时。) 线性函数近似的值的形式为问-Q−Q- Q (s ,a )= w1个F1个(s ,a )+ w2F2(s ,a )+ ⋯ ,Q(s,a)=w1f1(s,a)+w2f2(s,a)+⋯,Q(s,a) = w_1 f_1(s,a) + w_2 f_2(s,a) + \cdots, 其中是权重,f i是特征。w一世wiw_iF一世fif_i 这些功能由用户预定义。我的问题是,权重如何分配? 我已经阅读/下载了一些有关学习函数逼近的讲座幻灯片。他们中的大多数人都跟随着线性回归的幻灯片。由于它们只是幻灯片,因此往往不完整。我想知道这两个主题之间的联系/关系是什么。问-Q−Q-



1
黑森矩阵和协方差矩阵之间的关系
在研究最大似然估计时,要进行最大似然估计的推论,我们需要知道方差。要找出方差,我需要知道Cramer的Rao下界,它看起来像是在曲率上具有二阶导数的Hessian矩阵。我有点混在一起来定义协方差矩阵和粗麻布矩阵之间的关系。希望听到有关该问题的一些解释。一个简单的例子将不胜感激。

3
如何为多分类器建立混淆矩阵?
我有6个班级的问题。因此,我构建了一个多类分类器,如下所示:对于每个类,我都有一个Logistic回归分类器,使用“一个vs全部”,这意味着我有6个不同的分类器。 我可以为我的每个分类器报告一个混淆矩阵。但是,我想报告所有分类器的混淆矩阵,正如我在此处的许多示例中所看到的那样。 我该怎么做?我是否必须使用“一对一”算法而不是“一对一”算法来更改分类策略?因为在这些混淆矩阵上,报告指出了每个类别的误报。 多类混淆矩阵的示例 我想找到错误分类的物品数量。在第一行中,有137个类别1的示例被分类为1类,而13个类别1的示例被分类为2类。如何获得这个号码?




4
无可能性的推断-这是什么意思?
最近,我意识到文学中流传着“无可能性”方法。但是我不清楚推理或优化方法是没有可能性的意味着什么。 在机器学习中,目标通常是使某些参数拟合函数的可能性最大化,例如神经网络上的权重。 那么,无可能性方法的原理到底是什么?为什么像GAN这样的对抗网络却属于这一类呢?

5
借阅信息到底意味着什么?
我经常与他们谈论贝叶斯层次模型中的信息借用或信息共享。对于这实际上意味着什么以及贝叶斯层次模型是否独特,我似乎无法获得一个直接的答案。我有点主意:层次结构中的某些级别共享一个公共参数。我不知道这如何转换为“信息借用”。 人们喜欢扔掉“信息借用” /“信息共享”这句话吗? 是否有一个封闭形式的后继例子来说明这种共享现象? 这是贝叶斯分析所独有的吗?通常,当我看到“信息借用”示例时,它们只是混合模型。也许我以一种老式的方式学习了这种模型,但是我看不到任何共享。 我对开始有关方法的哲学辩论不感兴趣。我只是对这个术语的使用感到好奇。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.