线性回归
input space
X=Rd
label space / output space(y的范围是0到1)
Y=R
hypothesis class F
F:{x↦ w⊤x+b∣w∈Rd,b∈R}
loss function(l2-loss) square loss
ℓ(f(x),y)=(f(x)−y)2
loss function( absolute loss )
ℓ(f(x),y)=∣f(x)−y∣
Empricial Risk Minizer(convex)
R^(w)=m1i=1∑m(yi−w⊤xi)2
因为上面这个函数时convex,所以我们可以通过求导并使其等于0来求min。通过上述方法从ERM中求出来的w如下(如果XTX可逆的话)
w^=(X⊤X)−1X⊤Y
Regulation
Regulation:为了防止因为如果XTX接近singular时,导致w会很大的情况,我们给原始函数增加一个惩罚函数
G^=R^(w)+λψ(w)
其中ψ(w)常见取值为∥w∥1或者∥w∥22
ridge regression|ψ=∣∣ω∣∣22
G^(w)=m1i=1∑m(yi−w⊤xi)2+λ∥w∥22w^λ=(X⊤X+λmI)−1X⊤Y
LASSO regression|ψ=∣∣ω∣∣1|当我们需要sparse solutions的时候
G^(w)=m1i=1∑m(yi−w⊤xi)2+λ∥w∥1
声明:此blog内容为上课笔记,仅为分享使用。部分图片和内容取材于课本、老师课件、网络。如果有侵权,请联系aursus.blog@gmail.com删除。