Questions tagged «rbf-kernel»

2
美世定理是否相反?
一位同事有一个功能sss,对我们来说,它是一个黑匣子。该函数测量两个对象的相似度s (a ,b )s(a,b)s(a,b)。 我们肯定知道sss具有以下属性: 相似性分数是介于0和1之间(含0和1)的实数。 只有自我相同的对象的分数才为1。因此s (a ,b )= 1s(a,b)=1s(a,b)=1意味着a = ba=ba=b,反之亦然。 我们保证。s (a ,b )= s (b ,a )s(a,b)=s(b,a)s(a,b) = s(b,a) 现在,他想使用需要距离作为输入的算法,并依赖于满足距离公理的输入。 我的想法是,我们可以将相似性分数视为RBF核的结果有一定距离(可以是欧几里得范数或其他距离),即可以用代数重新排列,并假设相似性分数指的是RBF内核用于某些(未知)坐标系中的一对点。 小号(X一世,XĴ)− r 日志小号(X一世,XĴ)------------√= 经验( - d(米一世,米Ĵ)2[R)= d(米一世,米Ĵ)s(xi,xj)=exp⁡(−d(mi,mj)2r)−rlog⁡s(xi,xj)=d(mi,mj) \begin{align} s(x_i,x_j) &= \exp\left(-\frac{d( m_i, m_j)^2}{r}\right) \\ \sqrt{-r \log s(x_i,x_j) } &= d(m_i,m_j) \\ \end{align} 其中是一些未知向量,和X α是感兴趣的对象,并且d是一段距离。米α∈ [Rñmα∈Rnm_\alpha …

1
正则化线性与RKHS回归
我正在研究RKHS回归中的正则化与线性回归之间的差异,但是我很难理解两者之间的关键差异。 给定的输入-输出对,我想估计的函数如下 ,其中是内核函数。可以通过求解来找到 系数 其中,在某种程度上滥用符号的情况下,内核矩阵K的第i,j个条目是{\ displaystyle K(x_ {i},x_ {j})}。这给出 \ begin {equation} \ alpha ^ * =(K + \ lambda nI)^ {-1} Y。\ end {equation}(xi,yi)(xi,yi)(x_i,y_i)f(⋅)f(⋅)f(\cdot)f(x)≈u(x)=∑i=1mαiK(x,xi),f(x)≈u(x)=∑i=1mαiK(x,xi),\begin{equation}f(x)\approx u(x)=\sum_{i=1}^m \alpha_i K(x,x_i),\end{equation}K(⋅,⋅)K(⋅,⋅)K(\cdot,\cdot)αmαm\alpha_m我,Ĵķķ(X我,XĴ)α*=(ķ+λÑ我)-1ÿ。minα∈Rn1n∥Y−Kα∥2Rn+λαTKα,minα∈Rn1n‖Y−Kα‖Rn2+λαTKα,\begin{equation} {\displaystyle \min _{\alpha\in R^{n}}{\frac {1}{n}}\|Y-K\alpha\|_{R^{n}}^{2}+\lambda \alpha^{T}K\alpha},\end{equation}i,ji,ji,jKKKK(xi,xj)K(xi,xj){\displaystyle K(x_{i},x_{j})} α∗=(K+λnI)−1Y.α∗=(K+λnI)−1Y.\begin{equation} \alpha^*=(K+\lambda nI)^{-1}Y. \end{equation} 另外,我们可以将该问题视为正常的岭回归/线性回归问题: 分α ∈ [Rñ1个ñ∥ ÿ− Kα ∥2[Rñ+ λ αŤα,分α∈[Rñ1个ñ‖ÿ-ķα‖[Rñ2+λαŤα,\begin{equation} {\displaystyle \min …
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.