12 用于分类的SVM对我而言具有直觉的意义:我知道如何最小化||θ||2||θ||2产生最大余量。但是,我不了解回归的目标。各种文本(此处和此处)将其描述为最大化“平坦度”。我们为什么要这样做?回归等于“保证金”的概念是什么? 这里有一些尝试的答案,但是没有一个真正帮助我理解。 regression svm — 杨 source 我不是真的支持SVM理论,但是您链接到的内核机器讨论中的“平坦度”似乎等于:“具有小的二阶导数”(考虑样条平滑模型的典型动机)。 — conjugateprior
11 y=x⊤θ+ϵ,y=x⊤θ+ϵ,xxθθxxθθ 您也可以将Ridge Regression视为无需内核技巧或SVM'tube'回归公式就可以执行相同的操作。 编辑:响应@杨的评论,一些更多的解释: y=x⊤θ+ϵy=x⊤θ+ϵxxθθy=||x||||θ||cosψ+ϵy=||x||||θ||cosψ+ϵψψθθxxyy||θ||||θ||||θ||||θ|| y=x⊤θ1+ϵy=x⊤θ1+ϵy=x⊤θ2+ϵy=x⊤θ2+ϵθ1θ1θ2θ2θ1θ1xxθ1θ1n−2n−2 θθkkθθm−km−kkkθθkkkkθθllll — 破旧的 source 1 因此,这基本上是回归分析,具有“管状”损失函数(预测的点+/-ε为零罚分),而不是OLS的二次损失函数? — conjugateprior f(x)=(|x|−ϵ)+f(x)=(|x|−ϵ)+ @shabbychef谢谢。我一直想知道那里发生了什么。 — 共轭 @Conjugate Prior:我不认为这实际上不是所需的损失函数,但是数学最终效果很好,所以他们顺其自然。至少那是我的怀疑。 — shabbychef 2011年 y=θxy=θxθθϵϵθ=1e9−1θ=1e9−1θ=1e9θ=1e9θ=1e9+1θ=1e9+1
3 shabbychef从模型复杂性的角度给出了非常清晰的解释。我将尝试从另一个角度来理解这个问题,以防万一。 ee (xi,yi)(xi,yi)y=ωx+by=ωx+beeee |ωxi−yi+b|ω2+1−−−−−√|ωxi−yi+b|ω2+1 eeωω 任何人都可以轻松地将一维情况扩展为N维情况,因为距离方程始终是欧几里得距离。 另外,我们可能会对SVR中的优化问题进行回顾,以进行比较[1]。 min12||ω||2min12||ω||2 s.t.{yi−<ω,xi>−b≤e<ω,xi>+b−yi≥es.t.{yi−<ω,xi>−b≤e<ω,xi>+b−yi≥e 谢谢。 [1] Smola,A。和B.Schölkopf。关于支持向量回归的教程。统计与计算,第一卷。14,第3号,2004年8月,第199-222页。 — 循环的 source