目录
实现回归分析类算法的Python第三方工具包比较常用的有statsmodels、statistics、scikit-learn等,下面我们主要采用statsmodels。
CSV文件——“women.csv”。
数据集链接:https://download.csdn.net/download/m0_70452407/88519967
该数据集给出了年龄在30~39岁的15名女性的身高和体重数据,主要属性如下:
(1)height:身高
(2)weight:体重
理解机器学习方法在数据分析中的应用——采用简单线性回归、多项式回归方法进行回归分析。
(1)训练模型。
(2)对模型进行拟合优度评价和可视化处理,验证简单线性回归建模的有效性。
(3)采用多项式回归进行模型优化。
(4)按多项式回归模型预测体重数据。
Python语言及第三方工具包pandas、matplotlib和statsmodels。
- import pandas as pd
- df_women=pd.read_csv("D:\\Download\\JDK\\数据分析理论与实践by朝乐门_机械工业出版社\\第3章 回归分析\\women.csv",
- index_col=0)
对数据框df_women进行探索性分析。
df_women.describe()

df_women.shape
(15, 2)
接着,对数据库df_women进行数据可视化分析,通过调用mayplotlib.pyplot包中数据框(DataFrame)的scatter()方法绘制散点图。
- import matplotlib.pyplot as plt
- plt.scatter(df_women["height"],df_women["weight"])

从输出结果可以看出,女性身高与体重之间的关系可以进行线性回归分析,需要进一步进行数据准备工作。
进行线性回归分析之前,应准备好模型所需的特征矩阵(X)和目标向量(y)。这里我们采用Python的统计分析包statsmodel进行自动类型转换。
- X=df_women['height']
- y=df_women['weight']
以女性身高height作为自变量、体重weight作为因变量对数据进行简单线性回归建模,这里采用Python的统计分析包statsmodels中的OLS函数进行建模分析。
import statsmodels.api as sm
statsmodels.OLS()方法的输入有(endog,exog,missing,hasconst)4个,其中,endog是回归中的因变量,即上述模型中的weight,exog则是自变量的值,即模型中的height。
默认情况下,statsmodels.OLS()方法不含截距项,因此应将模型中的常数项看作基为1的维度上的系数。所以,exog的输入中,最左侧的一列的数值应全为1。这里我们采用statsmodels中提供的可直接解决这一问题的方法——sm.add_constant()给X新增一列,列名为const,每行取值为1.0
- X_add_const=sm.add_constant(X)
- X_add_const

在自变量X_add_const和因变量y上使用OLS()方法进行简单线性回归。
myModel=sm.OLS(y,X_add_const)
然后获取拟合结果,并调用summary()方法显示回归拟合的结果。
- results=myModel.fit()
- print(results.summary())
- OLS Regression Results
- ==============================================================================
- Dep. Variable: weight R-squared: 0.991
- Model: OLS Adj. R-squared: 0.990
- Method: Least Squares F-statistic: 1433.
- Date: Thu, 09 Nov 2023 Prob (F-statistic): 1.09e-14
- Time: 18:28:09 Log-Likelihood: -26.541
- No. Observations: 15 AIC: 57.08
- Df Residuals: 13 BIC: 58.50
- Df Model: 1
- Covariance Type: nonrobust
- ==============================================================================
- coef std err t P>|t| [0.025 0.975]
- ------------------------------------------------------------------------------
- const -87.5167 5.937 -14.741 0.000 -100.343 -74.691
- height 3.4500 0.091 37.855 0.000 3.253 3.647
- ==============================================================================
- Omnibus: 2.396 Durbin-Watson: 0.315
- Prob(Omnibus): 0.302 Jarque-Bera (JB): 1.660
- Skew: 0.789 Prob(JB): 0.436
- Kurtosis: 2.596 Cond. No. 982.
- ==============================================================================
-
- Notes:
- [1] Standard Errors assume that the covariance matrix of the errors is correctly specified.
- C:\ProgramData\Anaconda3\lib\site-packages\scipy\stats\_stats_py.py:1769: UserWarning: kurtosistest only valid for n>=20 ... continuing anyway, n=15
- warnings.warn("kurtosistest only valid for n>=20 ... continuing "
上述运行结果中第二部分的coef列所对应的const和height就是计算出的回归模型中的截距项和斜率。
除了读取回归摘要外,还可以调用params属性查看拟合结果的斜率和截距。
results.params
- const -87.516667
- height 3.450000
- dtype: float64
从输出结果可以看出,回归模型中的截距项和斜率分别为-87.516667和3.450000
以R^2(决定系数)作为衡量回归直线对观测值拟合程度的指标,其取值范围为[0,1],越接近1,说明“回归直线的拟合优度越好”。可以调用requared属性查看拟合结果的R^2
results.rsquared
0.9910098326857505
除了决定系数等统计量,还可以通过可视化方法更直观地查看回归效果。这里我们调用matplotlib.pyplot包中的plot()方法,将回归直线与真实数据绘制在一个图中进行比较。
- y_predict=results.params[0]+results.params[1]*df_women["height"]
- plt.rcParams['font.family']="simHei" #汉字显示 字体设置
- plt.plot(df_women["height"],df_women["weight"],"o")
- plt.plot(df_women["height"],y_predict)
- plt.title("女性身高与体重的线性回归分析")
- plt.xlabel("身高")
- plt.ylabel("体重")

从输出结果可以看出,采用简单线性回归模型的效果还可以进一步优化,为此采取多项式回归方法进行回归分析。
调用Python的统计分析包statsmodels中的OLS()方法对自变量女性身高height、因变量体重weight进行多项式回归建模。
假设因变量y与自变量X、X^2、X^3存在高元线性回归,因此在多项式分析中,特征矩阵由3部分组成,即X、X^2和X^3。通过调用numpy库的column_stack()方法创建特征矩阵X。
- import numpy as np
- X=np.column_stack((X,np.power(X,2),np.power(X,3)))
通过sm.add_constant()方法保留多项式回归中的截距项。对自变量X_add_const和因变量y使用OLS()方法进行多项式回归。
- X_add_const=sm.add_constant(X)
- myModel_updated=sm.OLS(y,X_add_const)
- results=myModel_updated.fit()
- print(results.summary())
- OLS Regression Results
- ==============================================================================
- Dep. Variable: weight R-squared: 1.000
- Model: OLS Adj. R-squared: 1.000
- Method: Least Squares F-statistic: 1.679e+04
- Date: Thu, 09 Nov 2023 Prob (F-statistic): 2.07e-20
- Time: 18:46:54 Log-Likelihood: 1.3441
- No. Observations: 15 AIC: 5.312
- Df Residuals: 11 BIC: 8.144
- Df Model: 3
- Covariance Type: nonrobust
- ==============================================================================
- coef std err t P>|t| [0.025 0.975]
- ------------------------------------------------------------------------------
- const -896.7476 294.575 -3.044 0.011 -1545.102 -248.393
- x1 46.4108 13.655 3.399 0.006 16.356 76.466
- x2 -0.7462 0.211 -3.544 0.005 -1.210 -0.283
- x3 0.0043 0.001 3.940 0.002 0.002 0.007
- ==============================================================================
- Omnibus: 0.028 Durbin-Watson: 2.388
- Prob(Omnibus): 0.986 Jarque-Bera (JB): 0.127
- Skew: 0.049 Prob(JB): 0.939
- Kurtosis: 2.561 Cond. No. 1.25e+09
- ==============================================================================
-
- Notes:
- [1] Standard Errors assume that the covariance matrix of the errors is correctly specified.
- [2] The condition number is large, 1.25e+09. This might indicate that there are
- strong multicollinearity or other numerical problems.
- C:\ProgramData\Anaconda3\lib\site-packages\scipy\stats\_stats_py.py:1769: UserWarning: kurtosistest only valid for n>=20 ... continuing anyway, n=15
- warnings.warn("kurtosistest only valid for n>=20 ... continuing "
从输出结果可以看出,多项式回归模型中的截距项为-896.7476,而X、X^2、X^3对应的斜率分别为46.4108、-0.7462和0.0043
调用requared属性查看拟合结果的R^2:
results.rsquared
0.9997816939979361
从决定系数的结果可以看出,多项式回归模型的效果比简单线性回归模型的效果更好。
使用该多项式回归模型进行体重预测并输出预测结果。
- y_predict_updated=results.predict()
- y_predict_updated
- array([114.63856209, 117.40676937, 120.18801264, 123.00780722,
- 125.89166846, 128.86511168, 131.95365223, 135.18280543,
- 138.57808662, 142.16501113, 145.9690943 , 150.01585147,
- 154.33079796, 158.93944911, 163.86732026])
多项式回归模型的可视化:
- y_predict=(results.params[0]+results.params[1]*df_women["height"]+
- results.params[2]*df_women["height"]**2+
- results.params[3]*df_women["height"]**3)
-
- plt.plot(df_women["height"],df_women["weight"],"o")
- plt.plot(df_women["height"],y_predict)
- plt.title("女性身高与体重的多项式回归分析")
- plt.xlabel("身高")
- plt.ylabel("体重")

从结果可以看出,采用多项式回归后拟合效果显著提高,结果较为令人满意。