牛客是一款不论是面试 还是刷题 都是非常有用的 还等什么,传送门- 牛客网python基础
🥇作者简介:大家好我是 uu 给刚入门的python的小伙伴带来一套python 完整的入门基础。
🥈个人主页:uu主页
📑 推荐一款非常火的面试、刷题神器👉 牛客网python基础
觉得uu写的不错的话 麻烦动动小手 点赞👍 收藏⭐ 评论📄
今天给大家带来的刷题系列是:使用梯度下降对逻辑回归进行训练
题目介绍:
描述
逻辑回归是机器学习领域中被广泛使用的经典模型。理解和正确使用逻辑回归对于机器学习的实际应用至关重要。逻辑回归通常使用极大似然的思想构建损失函数,并且在此基础上使用梯度下降进行求解。通过求解极大似然思想表示的逻辑回归损失函数对于参数 θ的梯度,可以得到参数的更新公式为:,其中
,请根据上述给定的信息完成接下来的代码补全。
从当前路径下读取数据集dataSet.csv、labels.csv,使用梯度下降的思想训练逻辑回归模型进行训练,需要实现 sigmoid 函数和 gradientDescent 函数。其中,sigmoid 函数只需给出基本的数学实现,gradientDescent 函数的入参是训练数据矩阵 dataMatIn 和 classLabels,其格式均为 np.matrix,matrix 中的特征有3 维度,因此返回值为经过迭代以后的参数矩阵,要求格式为 np.matrix 格式,维度为 3 * 1,分别代表了每一维特征的权重。
其中dataSet.csv示例数据如下:
lables.csv示例数据集如下:
解题思路:
使用 python 的包
import numpy as np
import pandas as pd
代码解析:
import numpy as np import pandas as pd def generate_data(): datasets = pd.read_csv('dataSet.csv', header=None).values.tolist() labels = pd.read_csv('labels.csv', header=None).values.tolist() return datasets, labels def sigmoid(X): #补全 sigmoid 函数功能 #code start here return 1.0 / (1 + np.exp(-X)) #code end here def gradientDescent(dataMatIn, classLabels): alpha = 0.001 # 学习率,也就是题目描述中的 α iteration_nums = 100 # 迭代次数,也就是for循环的次数 dataMatrix = np.mat(dataMatIn) labelMat = np.mat(classLabels).transpose() m, n = np.shape(dataMatrix) # 返回dataMatrix的大小。m为行数,n为列数。 weight_mat = np.ones((n, 1)) #初始化权重矩阵 #iteration_nums 即为循环的迭代次数 #请在代码完善部分注意矩阵乘法的维度,使用梯度下降矢量化公式 #code start here for i in range(iteration_nums): hx = sigmoid(dataMatrix * weight_mat) weight_mat = weight_mat - alpha * dataMatrix.transpose() * (hx - labelMat) return weight_mat #code end here if __name__ == '__main__': dataMat, labelMat = generate_data() print(gradientDescent(dataMat, labelMat))
牛客是一款不论是面试 还是刷题 都是非常有用的 还等什么,传送门- 牛客网python基础