Questions tagged «vc-dimension»

VC维数(对于Vapnik–Chervonenkis维数)是统计分类算法的容量(复杂性,表达能力,丰富性或灵活性)的度量,定义为该算法可以破碎的最大点集的基数。

1
决策树的VC维是多少?
二维拆分k个决策树的VC维是多少?假设模型是CART,并且唯一允许的分割与轴平行。 因此,对于一个分割,我们可以在三角形中订购3个点,然后对于这些点的任何标记,我们都可以得到完美的预测(即:破碎点) 但是2分割或任何通用k呢?

2
VC维度用于测量神经网络的复杂性的替代方法是什么?
我遇到了一些测量神经网络复杂性的基本方法: 幼稚和非正式:计算神经元,隐藏的神经元,层或隐藏层的数量 VC维度(Eduardo D. Sontag [1998]“神经网络的VC维数” [ pdf ]。) 等效于TC0dTCd0TC^0_d过程粒度和渐近计算复杂性度量。 还有其他选择吗? 首选: 如果复杂性度量可用于在相同规模上测量来自不同范式的神经网络(以测量反向传播,动力学神经网络,级联相关性等)。例如,VC维度可用于网络(甚至是神经网络以外的其他事物)上的不同类型,而神经元的数量仅在激活函数,信号(基本和尖峰)以及其他函数非常特定的模型之间有用。网络的属性是相同的。 如果它与网络可学习的功能复杂性的标准度量有很好的对应关系 如果很容易在特定网络上计算度量标准(尽管这不是必须的)。 笔记 该问题基于对CogSci.SE 的更一般的问题。


2
回归模型的VC维
在讲座系列“ 从数据中学习”中,这位教授提到VC维度量了给定模型可以破碎多少点的模型复杂性。因此,这对于分类模型非常有效,在分类模型中,如果分类器能够有效地粉碎k个点,我们可以说出N个点,那么VC维度量将为K。但是我不清楚如何为回归模型测量VC维?


1
SVM的一般化界限
我对支持向量机的泛化能力的理论结果感兴趣,例如,这些机器的分类错误概率和Vapnik-Chervonenkis(VC)维度的界限。但是,通读文献后,我的印象是,某些相似的重复结果往往因作者而略有不同,尤其是在一定的持有范围内需要的技术条件方面。 在下面我会记得的SVM问题和主要成果概括状态3,我已经在这种或那种形式反复发现的结构我给整个博览会3个主引用。−−- 问题设置: 假设我们有一个独立且均布的(iid)对的数据样本,其中所有,和。我们构造了一个支持向量机(SVM),该向量使,和定义的分离超平面之间的最小余量最大化。,以及之间最接近的点以便将和定义的两个类分开。我们通过引入松弛变量让SVM通过软裕度来承认一些错误(xi,yi)1≤i≤n(xi,yi)1≤i≤n(x_i,y_i)_{1\leq i\leq n}iiixi∈Rpxi∈Rpx_i \in \mathbb{R}^pyi∈{−1,1}yi∈{−1,1}y_i \in \{-1,1\}m∗m∗m^*{x:w⋅x+b=0}{x:w⋅x+b=0}\{x : w \cdot x + b = 0\}w∈Rpw∈Rpw \in \mathbb{R}^pb∈Rb∈Rb \in \mathbb{R}x1,⋯,xnx1,⋯,xnx_1,\cdots,x_ny=−1y=−1y = -1y=1y=1y = 1 -ξ1,⋯,ξnξ1,⋯,ξn\xi_1,\cdots,\xi_n −−-但为了表示简单起见,我们忽略了内核的可能性。解参数和是通过求解以下凸二次优化程序获得的:b ∗w∗w∗w^*b∗b∗b^* minw,b,ξ1,⋯,ξns.t.:12∥w∥2+C∑i=1nξiyi(w⋅xi+b)≥1−ξiξi≥0,∀i∈{1,⋯,n},∀i∈{1,⋯,n}minw,b,ξ1,⋯,ξn12‖w‖2+C∑i=1nξis.t.:yi(w⋅xi+b)≥1−ξi,∀i∈{1,⋯,n}ξi≥0,∀i∈{1,⋯,n}\begin{align} \min_{w, \, b, \, \xi_1, \, \cdots, \, \xi_n} \; & \; \frac{1}{2}\|w\|^2 + C\sum_{i=1}^n\xi_i \\ \text{s.t.} \; : \; …

2
计算神经网络的VC维度
如果我有输入神经元的乙状神经元的固定非递归(DAG)拓扑(固定的节点和边集,但是学习算法可以改变边的权重),它们只能采用作为输入并导致一个输出(输出的实数值,如果它是固定的阈值(远离0),则我们向上舍入为1或向下舍入为-1)。是否有任何快速方法可以计算(或近似)该网络的VC尺寸?nnn{−1,1}n{−1,1}n\{-1,1\}^n 笔记 我在CS.SE上提出了一种更为精确的算法重新制定: 有效地计算或近似神经网络的VC维

1
k最近邻的VC维
如果k等于使用的训练点数,则k最近邻居算法的VC维是多少? 上下文:在我参加的课程中提出了这个问题,给出的答案为0。但是,我确实不明白为什么会这样。我的直觉是,VC-Dimension应该为1,因为应该可以选择两个模型(即训练点集),以便根据第一个模型,每个点都被标记为属于一个类别,而属于另一个类别根据第二种模型,因此应该有可能粉碎单个点。我的推理错误在哪里?

3
矩形的VC尺寸
EthemAlpaydın撰写的《机器学习入门》一书指出,与轴对齐的矩形的VC维数为4。但是,矩形如何破碎由四个共线点组成的正负交集? 有人可以解释和证明矩形的VC尺寸吗?
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.