2022.09.4 李航老师《统计学习方法》: 一. 统计学习及监督学习概论
# 本文目的就是为学者简化学习内容,提取我认为的重点 把书读薄;
# 本文内容: 泛化误差的公式 和 推到过程
本文重点:泛化误差上界的推导过程
讲了啥是泛化误差
泛化误差就是学习到的模型对未知数据的预测能力。
R e x p ( f ) = E p [ L ( Y , f ( x ) ) ] = ∫ X × Y L ( y , f ( x ) ) P ( x , y ) d x d y R_{exp}(f)=E_p[L(Y,f(x))]=∫X×YL(y,f(x))P(x,y)dxdy Rexp(f)=Ep[L(Y,f(x))]=∫X×YL(y,f(x))P(x,y)dxdy
1.3.2有讲到,这个是要所有数据的联合分布,如果知道那么就不需要预测了,直接查找就行
所以,那么如何比较泛化能力呢?
通过上界误差的方法来比较两个学习方法的泛化能力。误差越大 肯定越不好。
样本容量越大,预测越准确,极限考虑,我们知道了所有数据,那么上界误差就是0了。
假设空间也就是满足样本的函数,越多,那么选择的难度就越大,就越难学习,错误几率就越高,泛化误差上界就越大。
对二分类问题,当假设空间是有限个函数的集合F={f1,f2,⋯,fd}时,对任意一个函数 f ∈ F f∈F f∈F,至少以概率 1 − δ 1−δ 1−δ ,0<δ<1, 使得以下不等式成立:
R ( f ) ≤ R ( f ) + ϵ ( d , N , δ ) R(f)≤R^(f)+ϵ(d,N,δ) R(f)≤R(f)+ϵ(d,N,δ)
其中,
ϵ ( d , N , δ ) = 1 2 N ( l o g d + l o g 1 δ ) ϵ(d,N,δ)=\sqrt{\frac{1}{2N}(logd+log\frac{1}{δ})} ϵ(d,N,δ)=2N1(logd+logδ