房价预测
销售额度预测
贷款额度预测
利用回归方程(函数)对一个或多个自变量(特征值)和因变量(目标值)之间关系进行建模的一种分析方式
只有一个自变量的情况称为单变量回归,多于一个自变量情况的叫做多元回归
LinearRegression.coef_:回归系数
通过正规方程优化
fit_intercept:是否计算偏置
LinearRegression.coef_:回归系数
LinearRegression.intercept_:偏置
SGDRegressor类实现了随机梯度下降学习,它支持不同的loss函数和正则化惩罚项来拟合线性回归模型
loss:损失类型
fit_intercept:是否计算偏置
learning_rate : string, optional
学习率填充
‘constant’: eta = eta0
‘optimal’: eta = 1.0 / (alpha * (t + t0)) [default]
‘invscaling’: eta = eta0 / pow(t, power_t)
对于一个常数值的学习率来说,可以使用learning_rate=’constant’ ,并使用eta0来指定学习率
SGDRegressor.coef_:回归系数
SGDRegressor.intercept_:偏置
yi为第i个训练样本的真实值
h(xi)为第i个训练样本特征值组合预测函数
正规方程
X为特征值矩阵,y为目标值矩阵。直接求到最好的结果
缺点:当特征过多过复杂时,求解速度太慢并且得不到结果
梯度下降
基本思想
梯度
举例
单变量的梯度下降
迭代计算
经过了4次运算,基本就抵达了函数的最低点
多变量的梯度下降
假设初始的起点为: θ0 = (1, 3)
初始的学习率为:α = 0.1
函数的梯度为:▽:J(θ) =< 2θ1 ,2θ2>
迭代计算
基本靠近函数的最小值点
公式
α在梯度下降算法中被称作为学习率或者步长
太小的话,可能导致迟迟走不到最低点
太大的话,会导致错过最低点
两种方法对比
计算训练集所有样本误差,对其求和再取平均值作为目标函数
缺点
在整个训练数据集上计算损失函数关于参数θ的梯度
每次只代入计算一个样本目标函数的梯度来更新权重
遇上噪声则容易陷入局部最优解
每次从训练样本集上随机抽取一个小样本集,在抽出来的小样本集上采用FG迭代更新权重
被抽出的小样本集所含样本点的个数称为batch_size,通常设置为2的幂次方,更有利于GPU加速处理
若batch_size=1,则变成了SG;若batch_size=n,则变成了FG
迭代形式
(主要用于深度学习优化)
from sklearn.datasets import load_boston
data = load_boston()
一个假设在训练数据上能够获得比其他假设更好的拟合, 但是在测试数据集上却不能很好地拟合数据
原因
解决办法
重新清洗数据
增大数据的训练量
正则化
在学习的时候,数据提供的特征有些影响模型复杂度或者这个特征的数据点异常较多,所以算法在学习的时候尽量减少这个特征的影响(甚至删除某个特征的影响)
类别
L2正则化
作用
优点
Ridge回归
L1正则化
作用
LASSO回归
减少特征维度,防止维灾难
维灾难
一个假设在训练数据上不能获得更好的拟合,并且在测试数据集上也不能很好地拟合数据
原因
解决办法
在原来的线性回归的 cost function 中添加正则项
代价函数
α=0:岭回归退化为线性回归
API
sklearn.linear_model.Ridge(alpha=1.0, fit_intercept=True,solver=“auto”, normalize=False)
具有l2正则化的线性回归
alpha:正则化力度,也叫 λ
solver:会根据数据自动选择优化方法
sag:如果数据集、特征都比较大,选择该随机梯度下降优化
normalize:数据是否进行标准化
Ridge.coef_:回归权重_
Ridge.intercept:回归偏置
sklearn.linear_model.RidgeCV(_BaseRidgeCV, RegressorMixin)
线性回归的另一种正则化版本,正则项为权值向量的ℓ1范数
代价函数
Lasso Regression 的代价函数在 θi=0处是不可导的.
解决方法:在θi=0处用一个次梯度向量(subgradient vector)代替梯度
倾向于完全消除不重要的权重
在岭回归和Lasso回归中进行了折中,通过 混合比(mix ratio) r 进行控制
代价函数
from sklearn.externals import joblib