带有玩具数据的2D演示将用于说明在进行正则化和不进行正则化的情况下,逻辑回归完美分离所发生的情况。实验从重叠的数据集开始,然后我们逐渐将两类分开。目标函数轮廓和最佳值(物流损失)将显示在右下图中。数据和线性决策边界绘制在左侧子图中。
首先,我们尝试不进行正则化的逻辑回归。
- 正如我们看到的,随着数据的分散,目标函数(物流损失)发生了巨大的变化,而乐观情绪逐渐向更大的值倾斜。
- 完成操作后,轮廓将不再是“闭合形状”。此时,当解决方案移至右上角时,目标函数将始终较小。
接下来,我们尝试使用L2正则化进行逻辑回归(L1相似)。
代码(对于该答案,我也使用相同的代码:用于逻辑回归的正则化方法)
set.seed(0)
d=mlbench::mlbench.2dnormals(100, 2, r=1)
x = d$x
y = ifelse(d$classes==1, 1, 0)
logistic_loss <- function(w){
p = plogis(x %*% w)
L = -y*log(p) - (1-y)*log(1-p)
LwR2 = sum(L) + lambda*t(w) %*% w
return(c(LwR2))
}
logistic_loss_gr <- function(w){
p = plogis(x %*% w)
v = t(x) %*% (p - y)
return(c(v) + 2*lambda*w)
}
w_grid_v = seq(-10, 10, 0.1)
w_grid = expand.grid(w_grid_v, w_grid_v)
lambda = 0
opt1 = optimx::optimx(c(1,1), fn=logistic_loss, gr=logistic_loss_gr, method="BFGS")
z1 = matrix(apply(w_grid,1,logistic_loss), ncol=length(w_grid_v))
lambda = 5
opt2 = optimx::optimx(c(1,1), fn=logistic_loss, method="BFGS")
z2 = matrix(apply(w_grid,1,logistic_loss), ncol=length(w_grid_v))
plot(d, xlim=c(-3,3), ylim=c(-3,3))
abline(0, -opt1$p2/opt1$p1, col='blue', lwd=2)
abline(0, -opt2$p2/opt2$p1, col='black', lwd=2)
contour(w_grid_v, w_grid_v, z1, col='blue', lwd=2, nlevels=8)
contour(w_grid_v, w_grid_v, z2, col='black', lwd=2, nlevels=8, add=T)
points(opt1$p1, opt1$p2, col='blue', pch=19)
points(opt2$p1, opt2$p2, col='black', pch=19)