人工智能-线性回归1–损失函数、正规方程、梯度下降法
人工智能-线性回归2–房价预测、欠拟合过拟合、正则化、模型保存加载
线性回归分类:线性关系,非线性关系
from sklearn.linear_model import LinearRegression
#1,获取数据
x = [[80,86],
[70,86],
[85,86],
[80,66],
[80,76],
[90,86],
[80,82],
[70,76]]
y = [84,83,85,80,90,83,87,79,88]
#2,模型训练
#2.1 实例化一个估计器
estimator = LinearRegression()
#2.2 使用fit进行训练
estimator.fit(x,y)
# 打印回归系数
print('线性回归的系数是:\n',estimator.coef_)
#打印预测结果
print('预测结果是:\n',estimator.predict([[100,80]]))
向量求导

损失函数 :估计值与真实值的差平方和
如何使损失函数最小:正规方程、梯度下降


推导方式1:

X是一个普通的矩阵,不一定有逆,方阵一定有逆,所以右乘X的转置
推导方式2:


在单变量的函数中,梯度是函数的微分,代表着函数在某个给定点的切线的斜率。
在多变量的函数中,梯度是一个向量,有方向,梯度的方向指出了函数在给定点的上升最快的方向

a是学习率,即步长。(步长太小–下山太慢;步长太大–容易跳过极小值)
算法选择:
特征:指样本中输入部分
种类:




总结:
y = kx+b k—回归系数 ,b–偏置