在看代码时候,经常会看到normalize的部分,之前一直不太关注,因为不是所有论文代码都有这部分处理,之前自己没仔细看,现在想想 应该是再 utils里面 的 normalize 对 特征矩阵进行 了归一化(行或者列)。

比较详细,从p范数出发,解释了0范数是稀疏,但因为求解L0范数 是NP-hard的,理论表面L1范数是L0的最好逼近。因此常用L1范数进行求解,L2范数是稠密范数,常对参数w进行正则化。





数学损失函数 梯度、特征值 角度来说明L2范数
结论是 L2范数能够 对 重要参数抑制小,对不重要的参数抑制大,使得不重要的参数 对model 起的作用小,从而使得model 对不同参数不同对待,不用都去考虑,不用过于 拟合 数据。从而减轻过拟合。
归一化 和标准化 都能对数据进行缩放。


具体见
直接采用两个两个函数,可以对数据进行标准化处理,normalize是 正则化 计算,采用l1,l2。 scale 是标准化,即均值方差z-score
线性回归解决预测问题,逻辑回归通过sigmoid函数 将(-∞,∞)的值映射到(0,1)。从而解决分类问题
