• (2)paddle---简单线性回归和波士顿房价预测


    1、参考地址

    (1)blibli网站地址

    251-03_PaddlePaddle求解线性模型_dec_哔哩哔哩_bilibili

    (2)波士顿数据集介绍参考了

    机器学习:波士顿房价数据集_mjiansun的博客-CSDN博客

     2、简单线性回归

    (1)测试一个简单线性回归例子

     y = 2*x + 10

    (2)测试代码如下

    1. import paddle
    2. # test y = 2x +10
    3. #线性回归例子
    4. x_data = paddle.to_tensor([[1.0],[3.0],[5.0],[9.0],[10.0],[20.0]])
    5. y_data = paddle.to_tensor([[12.0],[16.0],[20.0],[28.0],[30.0],[50.0]])
    6. linear = paddle.nn.Linear(in_features=1, out_features=1)
    7. w_before_opt = linear.weight.numpy().item()
    8. b_before_opt = linear.bias.numpy().item()
    9. print("w: ",w_before_opt," b: ", b_before_opt)
    10. mse_loss = paddle.nn.MSELoss()
    11. sgd_optimizer = paddle.optimizer.SGD(learning_rate=0.001, parameters=linear.parameters())
    12. total_epoch = 5000
    13. for i in range(total_epoch):
    14. y_predict = linear(x_data)
    15. loss = mse_loss(y_predict, y_data)
    16. loss.backward()
    17. sgd_optimizer.step()
    18. sgd_optimizer.clear_gradients()
    19. if i % 1000 == 0:
    20. print(i, loss.numpy())
    21. print("finish training, loss = {}".format(loss.numpy()))
    22. w_finial_opt = linear.weight.numpy().item()
    23. b_finial_opt = linear.bias.numpy().item()
    24. print("w: ",w_finial_opt," b: ", b_finial_opt)

     (3)测试效果图

     3、波士顿房价数据集

    (1)数据集下载地址

    https://archive.ics.uci.edu/ml/machine-learning-databases/housing/housing.data

    (2)数据集内容

     该数据集是一个回归问题。每个类的观察值数量是均等的,共有 506 个观察,13 个输入变量和1个输出变量。每条数据包含房屋以及房屋周围的详细信息。其中包含城镇犯罪率,一氧化氮浓度,住宅平均房间数,到中心区域的加权距离以及自住房平均房价等等。

    CRIM:城镇人均犯罪率。

    ZN:住宅用地超过 25000 sq.ft. 的比例。

    INDUS:城镇非零售商用土地的比例。

    CHAS:查理斯河空变量(如果边界是河流,则为1;否则为0)。

    NOX:一氧化氮浓度。

    RM:住宅平均房间数。

    AGE:1940 年之前建成的自用房屋比例。

    DIS:到波士顿五个中心区域的加权距离。

    RAD:辐射性公路的接近指数。

    TAX:每 10000 美元的全值财产税率。

    PTRATIO:城镇师生比例。

    B:1000(Bk-0.63)^ 2,其中 Bk 指代城镇中黑人的比例。

    LSTAT:人口中地位低下者的比例。

    MEDV:自住房的平均房价,以千美元计。

    预测平均值的基准性能的均方根误差(RMSE)是约 9.21 千美元。

    注意: 因为涉及种族问题(有一个和黑人人口占比相关的变量B),请大家保持理性,认真严肃对待:(。

    (3)用notepad++打开这个.data的数据集,如下图所示

    (4)代码实现,感觉效果不好

    1. import paddle
    2. from paddle.nn import Linear
    3. import paddle.nn.functional as F
    4. import numpy as np
    5. import os
    6. import random
    7. def load_data():
    8. #从文件道路数据
    9. datafile = './housing.data'
    10. data = np.fromfile(datafile, sep=' ', dtype=np.float32)
    11. #每条数据包括14项,其中前面13项是影响因素,第14项是相应的房屋价格中位数
    12. feature_names = ['CRIM','ZN','INDUS','CHAS','NOX','RM','AGE',
    13. 'DIS','RAD','TAX','PTRATIO','B','LSTAT','MEDV']
    14. feature_num = len(feature_names)
    15. #将原始数据进行Reshape,变成[N, 14]这样的形状
    16. data = data.reshape([data.shape[0] // feature_num, feature_num])
    17. #将原始数据集拆分成训练集和测试集
    18. #这里使用80%的数据做训练,20%的数据做测试
    19. # 测试集和训练集必须是没有交集的
    20. ratio = 0.8
    21. offset = int(data.shape[0] * ratio)
    22. training_data = data[:offset]
    23. #计算train数据集的最大值,最小值,平均值
    24. maximums, minimums, avgs = training_data.max(axis=0),training_data.min(axis=0), \
    25. training_data.sum(axis=0)/training_data.shape[0]
    26. print(maximums.shape)
    27. # 记录数据的归一化参数,在预测时对数据做归一化
    28. # global max_values
    29. # global min_values
    30. # global avg_values
    31. max_values = maximums
    32. min_values = minimums
    33. avg_values = avgs
    34. #对所有的数据进行归一化处理
    35. for i in range(feature_num):
    36. data[:, i] = (data[:, i] - avgs[i]) / (maximums[i] - minimums[i])
    37. #训练集合测试集的划分比例
    38. training_data = data[:offset]
    39. test_data = data[offset:]
    40. return training_data, test_data, max_values, min_values, avg_values, feature_num
    41. class Regressor(paddle.nn.Layer):
    42. #self代表类的实例自身
    43. def __init__(self) -> None:
    44. #初始化父类中的一些参数
    45. super(Regressor, self).__init__()
    46. #定义一层全连接层,输入维度是13,输出维度是1
    47. self.fc = Linear(in_features=13, out_features=1)
    48. #网络的前向计算
    49. def forward(self, inputs):
    50. x = self.fc(inputs)
    51. return x
    52. #陈修改
    53. def load_one_test(testdata):
    54. #从测试数据中,随机选择一条数据作为测试数据
    55. idx = np.random.randint(0,testdata.shape[0])
    56. # idx = -10 # 或者直接指定
    57. one_data, label = testdata[idx, :-1], testdata[idx, -1]
    58. print("one_data.shape: ",one_data.shape)
    59. #修改该条数据shape为[1,13]
    60. one_data = one_data.reshape([1,-1])
    61. print("one_data.shape: ",one_data.shape)
    62. return one_data,label
    63. def house_price():
    64. # 定义线性模型
    65. model = Regressor()
    66. #开启模型训练模式
    67. model.train()
    68. # 加载数据
    69. training_data, test_data, max_values, min_values, avg_values, feature_num = load_data()
    70. #定义优化算法,使用随机梯度下降SGD
    71. #学习率设置为0.01
    72. opt = paddle.optimizer.SGD(learning_rate=0.01, parameters=model.parameters())
    73. EPOCH_NUM = 10 #总共多少轮训练
    74. BATCH_SIZE = 10 #batch siza大小
    75. #每一轮训练
    76. for epoch_id in range(EPOCH_NUM):
    77. #在每轮迭代开始之前,将训练数据的顺序随机的打乱
    78. np.random.shuffle(training_data)
    79. #将训练数据进行拆分,每个batch包含10条数据
    80. mini_batches = [training_data[k:k+BATCH_SIZE] for k in range(0, len(training_data), BATCH_SIZE)]
    81. #每一轮训练中,每个batch训练一遍
    82. for iter_id, mini_batch in enumerate(mini_batches):
    83. x = np.array(mini_batch[:,:-1]) #获得当前批次训练数据,前面13个值
    84. y = np.array(mini_batch[:,-1:]) #获得当前批次训练标签(真实放假),最后一个房价值
    85. #将numpy数据转为paddle的tensor形式
    86. house_features = paddle.to_tensor(x)
    87. prices = paddle.to_tensor(y)
    88. #前向计算
    89. predicts = model(house_features)
    90. #计算损失
    91. loss = F.square_error_cost(predicts,label=prices)
    92. avg_loss = paddle.mean(loss)
    93. if iter_id % 20 == 0:
    94. print("epoch:{}, iter:{}, loss is: {}".format(epoch_id, iter_id, avg_loss.numpy()))
    95. #反向传播
    96. avg_loss.backward()
    97. #最小化loss,更新参数
    98. opt.step()
    99. #清除梯度
    100. opt.clear_grad()
    101. #保存模型参数
    102. paddle.save(model.state_dict(), 'LR_model.pdparams')
    103. print("模型已保存,文件为LR_model.pdparams")
    104. #-------------------------------------------------------
    105. #读取模型
    106. model_dict = paddle.load('LR_model.pdparams')
    107. model.load_dict(model_dict)
    108. #设置为测试模式
    109. model.eval
    110. #获取测试数据,注意要做归一化
    111. one_data, label = load_one_test(test_data)
    112. #转为tensor
    113. one_data = paddle.to_tensor(one_data)
    114. predict = model(one_data)
    115. #对结果做反向归一化处理
    116. predict = predict *(max_values[-1] - min_values[-1]) + avg_values[-1]
    117. #对label数据做反向归一化处理
    118. label = label * (max_values[-1] - min_values[-1]) + avg_values[-1]
    119. print("Inference result is{}, the corresponding label is{}".format(predict.numpy(),label))
    120. if __name__ == "__main__":
    121. house_price()

    (5)改进一下,修改神经网络为2层,训练100epoch,效果看看还可以,如下

    1. import paddle
    2. from paddle.nn import Linear
    3. import paddle.nn.functional as F
    4. import numpy as np
    5. import os
    6. import random
    7. def load_data():
    8. #从文件道路数据
    9. datafile = './housing.data'
    10. data = np.fromfile(datafile, sep=' ', dtype=np.float32)
    11. #每条数据包括14项,其中前面13项是影响因素,第14项是相应的房屋价格中位数
    12. feature_names = ['CRIM','ZN','INDUS','CHAS','NOX','RM','AGE',
    13. 'DIS','RAD','TAX','PTRATIO','B','LSTAT','MEDV']
    14. feature_num = len(feature_names)
    15. #将原始数据进行Reshape,变成[N, 14]这样的形状
    16. data = data.reshape([data.shape[0] // feature_num, feature_num])
    17. #将原始数据集拆分成训练集和测试集
    18. #这里使用80%的数据做训练,20%的数据做测试
    19. # 测试集和训练集必须是没有交集的
    20. ratio = 0.8
    21. offset = int(data.shape[0] * ratio)
    22. training_data = data[:offset]
    23. #计算train数据集的最大值,最小值,平均值
    24. maximums, minimums, avgs = training_data.max(axis=0),training_data.min(axis=0), \
    25. training_data.sum(axis=0)/training_data.shape[0]
    26. print(maximums.shape)
    27. # 记录数据的归一化参数,在预测时对数据做归一化
    28. # global max_values
    29. # global min_values
    30. # global avg_values
    31. max_values = maximums
    32. min_values = minimums
    33. avg_values = avgs
    34. #对所有的数据进行归一化处理
    35. for i in range(feature_num):
    36. data[:, i] = (data[:, i] - avgs[i]) / (maximums[i] - minimums[i])
    37. #训练集合测试集的划分比例
    38. training_data = data[:offset]
    39. test_data = data[offset:]
    40. return training_data, test_data, max_values, min_values, avg_values, feature_num
    41. class Regressor(paddle.nn.Layer):
    42. #self代表类的实例自身
    43. def __init__(self) -> None:
    44. #初始化父类中的一些参数
    45. super(Regressor, self).__init__()
    46. #定义一层全连接层,输入维度是13,输出维度是1
    47. self.fc1 = Linear(in_features=13, out_features=20)
    48. self.fc2 = Linear(in_features=20, out_features=1)
    49. #网络的前向计算
    50. def forward(self, inputs):
    51. x1 = self.fc1(inputs)
    52. x2 = self.fc2(x1)
    53. return x2
    54. #陈修改
    55. def load_one_test(testdata):
    56. #从测试数据中,随机选择一条数据作为测试数据
    57. idx = np.random.randint(0,testdata.shape[0])
    58. # idx = -10 # 或者直接指定
    59. one_data, label = testdata[idx, :-1], testdata[idx, -1]
    60. print("one_data.shape: ",one_data.shape)
    61. #修改该条数据shape为[1,13]
    62. one_data = one_data.reshape([1,-1])
    63. print("one_data.shape: ",one_data.shape)
    64. return one_data,label
    65. def house_price():
    66. # 定义线性模型
    67. model = Regressor()
    68. #开启模型训练模式
    69. model.train()
    70. # 加载数据
    71. training_data, test_data, max_values, min_values, avg_values, feature_num = load_data()
    72. #定义优化算法,使用随机梯度下降SGD
    73. #学习率设置为0.01
    74. opt = paddle.optimizer.SGD(learning_rate=0.01, parameters=model.parameters())
    75. EPOCH_NUM = 100 #总共多少轮训练
    76. BATCH_SIZE = 10 #batch siza大小
    77. #每一轮训练
    78. for epoch_id in range(EPOCH_NUM):
    79. #在每轮迭代开始之前,将训练数据的顺序随机的打乱
    80. np.random.shuffle(training_data)
    81. #将训练数据进行拆分,每个batch包含10条数据
    82. mini_batches = [training_data[k:k+BATCH_SIZE] for k in range(0, len(training_data), BATCH_SIZE)]
    83. #每一轮训练中,每个batch训练一遍
    84. for iter_id, mini_batch in enumerate(mini_batches):
    85. x = np.array(mini_batch[:,:-1]) #获得当前批次训练数据,前面13个值
    86. y = np.array(mini_batch[:,-1:]) #获得当前批次训练标签(真实放假),最后一个房价值
    87. #将numpy数据转为paddle的tensor形式
    88. house_features = paddle.to_tensor(x)
    89. prices = paddle.to_tensor(y)
    90. #前向计算
    91. predicts = model(house_features)
    92. #计算损失
    93. loss = F.square_error_cost(predicts,label=prices)
    94. avg_loss = paddle.mean(loss)
    95. if iter_id % 20 == 0:
    96. print("epoch:{}, iter:{}, loss is: {}".format(epoch_id, iter_id, avg_loss.numpy()))
    97. #反向传播
    98. avg_loss.backward()
    99. #最小化loss,更新参数
    100. opt.step()
    101. #清除梯度
    102. opt.clear_grad()
    103. #保存模型参数
    104. paddle.save(model.state_dict(), 'LR_model.pdparams')
    105. print("模型已保存,文件为LR_model.pdparams")
    106. #-------------------------------------------------------
    107. #读取模型
    108. model_dict = paddle.load('LR_model.pdparams')
    109. model.load_dict(model_dict)
    110. #设置为测试模式
    111. model.eval
    112. #获取测试数据,注意要做归一化
    113. one_data, label = load_one_test(test_data)
    114. #转为tensor
    115. one_data = paddle.to_tensor(one_data)
    116. predict = model(one_data)
    117. #对结果做反向归一化处理
    118. predict = predict *(max_values[-1] - min_values[-1]) + avg_values[-1]
    119. #对label数据做反向归一化处理
    120. label = label * (max_values[-1] - min_values[-1]) + avg_values[-1]
    121. print("Inference result is{}, the corresponding label is{}".format(predict.numpy(),label))
    122. if __name__ == "__main__":
    123. house_price()

  • 相关阅读:
    ble理论(14) ble扫描详解
    华为机试 - 仿LISP运算
    一起Talk Android吧(第四百二十五回:字节数组与String相互转换)
    (九)Spring之Bean的循环依赖问题
    WPF 应用迁移到 Electron 框架过程记录
    2022蓝帽杯初赛wp
    JetCache-的使用(入门教程)
    pat多项式求和
    快速打字只需要16.8
    密码学三 btc 钱包 节点 挖矿 51%攻击 双花攻击
  • 原文地址:https://blog.csdn.net/chencaw/article/details/127914969