• 机器学习实践八:基于线性回归预测波士顿房价


    目录

    一、线性回归定义

    二、房价预测流程

    1.数据集的加载

    2.神经网络模型的搭建

    3.网络模型训练和测试

    三、模型总结


    一、线性回归定义

    线性回归(Linear regression)是利用回归方程(函数)对一个或多个自变量(特征值)和因变量(目标值)之间关系进行建模的一种分析方式。

    • 特点:只有一个自变量的情况称为单变量回归多于一个变量的情况称为多元回归
    • 通用公式:h(x)=w_{1}x_{1}+w_{2}x_{2}+w_{3}x_{3}+...+b=w^{T}x+b

    二、房价预测流程

    本实践基于百度飞浆平台(PaddlePaddle),使用深度学习框架paddle,paddle API 文档链接:

    使用指南-使用文档-PaddlePaddle深度学习平台

    • 步骤一:数据集的加载  
    • 步骤二:神经网络模型的搭建
    • 步骤三:网络模型训练和测试
    1.数据集的加载

    uci-housing数据集共506行,每行14列。前13列用来描述房屋的各种信息,最后一列为该类房屋价格中位数。PaddlePaddle提供了读取uci_housing训练集和测试集的接口,分别为paddle.dataset.uci_housing.train( ) 和  paddle.dataset.uci_housing.test( ) 。

    1. #设置默认的全局dtype(数据类型)为float64
    2. paddle.set_default_dtype("float64")
    3. # 训练数据集
    4. train_dataset = paddle.text.datasets.UCIHousing(mode='train')
    5. # 评估数据集
    6. eval_dataset = paddle.text.datasets.UCIHousing(mode='test')
    7. # 初始化数据读取器
    8. train_loader = paddle.io.DataLoader(train_dataset, batch_size=32, shuffle=True)
    9. eval_loader = paddle.io.DataLoader(eval_dataset, batch_size = 8, shuffle=False)

    相关API:

    1. # 设置全局数据类型
    2. paddle.set_default_dtype("float64")
    3. # paddle.io.DataLoader API 可对数据集进行多进程的读取,并且可自动完成划分 batch 的工作。
    4. train_loader = paddle.io.DataLoader(train_custom_dataset, batch_size=64, shuffle=True,
    5. num_workers=1, drop_last=True)
    6. ·train_custom_dataset:训练数据集
    7. ·batch_size:每批次读取样本数,batch_size=64 表示每批次读取 64 个样本。
    8. ·shuffle:样本乱序,shuffle=True 表示在取数据时打乱样本顺序,以减少过拟合发生的可能。
    9. ·num_workers:同步/异步读取数据,通过 num_workers 来设置加载数据的子进程个数,
    10. num_workers的值设为大于0时,即开启多进程方式异步加载数据,可提升数据读取速度。
    11. ·drop_last:丢弃不完整的批次样本, drop_last=True 表示丢弃因数据集样本数不能被
    12. batch_size 整除而产生的最后一个不完整的 batch 样本。
    2.神经网络模型的搭建

    本模型比较简单,只有一层隐藏层网络,对算力需求不高

    1. # 定义全连接网络
    2. class Regressor(paddle.nn.Layer):
    3. def __init__(self):
    4. super(Regressor, self).__init__()
    5. # 定义一层全连接层,输出维度是1,激活函数为None,即不使用激活函数
    6. self.linear = paddle.nn.Linear(13, 1, None)
    7. # 网络的前向计算函数
    8. def forward(self, inputs):
    9. x = self.linear(inputs)
    10. return x
    • paddle.nn.Linear(13, 1, None) 表示的就是 h(x)=w_{1}x_{1}+w_{2}x_{2}+...+w_{13}x_{13}+b

    相关API:

    1. class paddle.nn.Linear(in_features, out_features, weight_attr=None, bias_attr=None, name=None)
    2. ·in_features (int):线性变换层输入单元的数目。
    3. ·out_features (int):线性变换层输出单元的数目。
    4. ·weight_attr (ParamAttr,可选):指定权重参数的属性。默认值为 None,表示使用默认的权重参数属性。
    5. ·bias_attr (ParamAttr|bool,可选):指定偏置参数的属性。bias_attr为 bool 类型且设置为 False 时,
    6. 表示不会为该层添加偏置。bias_attr如果设置为 True 或者 None,则表示使用默认的偏置参数属性,将偏
    7. 置参数初始化为 0
    8. ·name (str,可选):一般无需设置,默认值为 None
    9. 注:该类定义了__call__方法,允许对象像函数一样调用
    3.网络模型训练和测试

    定义画图函数:

    1. Batch=0
    2. Batchs=[]
    3. all_train_accs=[]
    4. def draw_train_acc(Batchs, train_accs):
    5. title="training accs"
    6. plt.title(title, fontsize=24)
    7. plt.xlabel("batch", fontsize=14)
    8. plt.ylabel("acc", fontsize=14)
    9. plt.plot(Batchs, train_accs, color='green', label='training accs')
    10. plt.legend()
    11. plt.grid()
    12. plt.show()
    13. all_train_loss=[]
    14. def draw_train_loss(Batchs, train_loss):
    15. title="training loss"
    16. plt.title(title, fontsize=24)
    17. plt.xlabel("batch", fontsize=14)
    18. plt.ylabel("loss", fontsize=14)
    19. plt.plot(Batchs, train_loss, color='red', label='training loss')
    20. plt.legend()
    21. plt.grid()
    22. plt.show()

    训练模型:

    1. model=Regressor() # 模型实例化
    2. model.train() # 训练模式
    3. mse_loss = paddle.nn.MSELoss() # 初始化误差计算对象
    4. opt=paddle.optimizer.SGD(learning_rate=0.0005, parameters=model.parameters()) # 初始化优化器
    5. epochs_num=200 #迭代次数
    6. # 一共进行200次迭代,训练200次,得到较为接近的xi值
    7. for pass_num in range(epochs_num):
    8. for batch_id,data in enumerate(train_loader()):
    9. image = data[0] # 特征值,即前13个数
    10. label = data[1] # 目标值,最后一个数——房价中位数
    11. predict=model(image) # 数据传入model,得到预测值
    12. loss=mse_loss(predict,label) # 计算预测值和目标值的均方差误差
    13. # 打印每次迭代训练的结果
    14. if batch_id!=0 and batch_id%10==0:
    15. Batch = Batch+10
    16. Batchs.append(Batch)
    17. all_train_loss.append(loss.numpy()[0])
    18. print("epoch:{},step:{},train_loss:{}".format(pass_num,batch_id,loss.numpy()[0]) )
    19. # 将误差反向传播
    20. loss.backward()
    21. # 优化器进行优化,即优化x1,x2,x3...的值
    22. opt.step()
    23. # opt.clear_grad()来重置梯度
    24. opt.clear_grad()
    25. paddle.save(model.state_dict(),'Regressor') # 保存模型
    26. draw_train_loss(Batchs,all_train_loss) # 画训练批次和损失的关系图

    相关API:

    1. paddle.nn.MSELoss(reduction='mean')
    2. 作用:计算预测值和目标值的均方差误差
    3. class paddle.optimizer.SGD(learning_rate=0.001, parameters=None, weight_decay=None,
    4. grad_clip=None, name=None)
    5. 随机梯度下降算法的优化器,为网络添加反向计算过程,并根据反向计算所得的梯度,更新 parameters 中的
    6. Parameters,最小化网络损失值 loss。
    7. ·learningrate (float|LRScheduler,可选):学习率,用于参数更新的计算。可以是一个浮点型值或者一个
    8. LRScheduler 类,默认值为 0.001
    9. ·parameters (list,可选):指定优化器需要优化的参数。在动态图模式下必须提供该参数;在静态图模式下默
    10. 认值为 None,这时所有的参数都将被优化。
    11. ·weight_decay (float|Tensor,可选):权重衰减系数,是一个 float 类型或者 shape 为[1],数据类型为
    12. float32 的 Tensor 类型。默认值为 0.01
    13. ·grad_clip (GradientClipBase,可选) – 梯度裁剪的策略,支持三种裁剪策略:
    14. paddle.nn.ClipGradByGlobalNorm, paddle.nn.ClipGradByNorm, paddle.nn.ClipGradByValue。
    15. 默认值为 None,此时将不进行梯度裁剪。
    16. ·name (str,可选):一般无需设置,默认值为 None

    模型评估:

    1. #模型评估
    2. para_state_dict = paddle.load("Regressor")
    3. model = Regressor()
    4. model.set_state_dict(para_state_dict) #加载模型参数
    5. model.eval() #验证模式
    6. losses = []
    7. infer_results=[]
    8. groud_truths=[]
    9. for batch_id,data in enumerate(eval_loader()):#测试集
    10. image=data[0]
    11. label=data[1]
    12. groud_truths.extend(label.numpy())
    13. predict=model(image)
    14. infer_results.extend(predict.numpy())
    15. loss=mse_loss(predict,label)
    16. losses.append(loss.numpy()[0])
    17. avg_loss = np.mean(losses)
    18. print("当前模型在验证集上的损失值为:",avg_loss)

    三、模型总结

    线性回归模型就是围绕公式  h(x)=w_{1}x_{1}+w_{2}x_{2}+w_{3}x_{3}+...+b=w^{T}x+b  开展模型搭建,根据已有的数据进行大量训练得到初步的 x_{i} 值和误差 loss,接着优化器优化 x_{i} 值使 loss不断减小,经过多轮循环得到更为合适的 x_{i} ,从而用已知的公式预测想要得到的数据。

  • 相关阅读:
    oracle学习49-监听服务设置开机自启,不用一直配置监听
    vue3 + quasar 弹窗的几种方式
    【FFmpeg】AVFrame结构体
    [100天算法】-连通网络的操作次数(day 46)
    【leetcode】不含重复字符的最长子字符串
    智能电饭煲设计(论文+仿真源文件)
    spring5.0源码解析 Aop 04 配置通知器
    SaaSBase:什么是汇思?
    YoloV7改进策略:SwiftFormer,全网首发,独家改进的高效加性注意力用于实时移动视觉应用的模型,重构YoloV7
    学生dreamweaver网页设计作业成品___辅导网站( 4页 登录注册 轮播图)
  • 原文地址:https://blog.csdn.net/weixin_74319382/article/details/132640225