线性回归p1
本系列文章是我学习李沐老师深度学习系列课程的学习笔记,可能会对李沐老师上课没讲到的进行补充。




其中,
【提问】解释一下线性回归模型的标量偏差
【chatGPT回答】线性回归模型中的标量偏差(scalar bias)通常是指模型中的一个额外参数,用来调整模型的输出,使其更好地拟合数据。这个偏差值是一个常数,不依赖于输入特征,它在线性回归模型中起到平移或偏移输出的作用。
线性回归模型用于建立输入特征和输出目标之间的关系,通常表示为:
y = w x + b y = wx + b y=wx+b
其中:
- y y y 是模型的输出(预测值)。
- x x x 是输入特征。
- w w w 是特征的权重或系数,用来衡量特征对输出的影响。
- b b b 是标量偏差,也称为截距或偏移项,它表示当输入特征 (x) 为零时,模型的输出 (y) 的期望值。
标量偏差 (b) 允许模型在没有输入特征的情况下仍然能够有一个非零的输出。这对于捕捉数据中的整体偏移或平移是很重要的。例如,如果你正在建立一个房价预测模型,特征 (x) 可能表示房屋的大小,但即使房屋大小为零,房价也不应该为零,因此标量偏差 (b) 允许模型预测一个基本价格。
在训练线性回归模型时,模型会尝试学习最佳的权重 (w) 和偏差 (b) 的值,以最小化预测值与真实值之间的差距(损失函数)。这个过程通常使用最小二乘法来完成。
总之,线性回归模型的标量偏差是一个用来平移或偏移模型输出的常数参数,它允许模型在没有输入特征时仍能够产生非零的输出,从而更好地拟合数据。





其中,

其中
图中的
b
b
b应为
b
→
=
(
b
,
b
,
.
.
.
,
b
)
n
×
1
T
\overrightarrow {b}=(b,b,...,b)^{T}_{n\times 1}
b=(b,b,...,b)n×1T,否则不符合数学上的定义,李沐老师之所以这么写是因为在PyTorch中,向量减去标量相当于对向量的每一个分量都减去相同的标量,所以上述公式在写代码时可以直接用,以下给出我推导的过程:

因为我们用的是线性模型,所以我们有显示解。

【注】在评论区发现李沐老师少写了个转置,这里直接更正一下
将
X
\bm{X}
X进行增广,
w
→
\overrightarrow {w}
w进行增广,最终变为
X
n
×
(
m
+
1
)
,
w
→
(
m
+
1
)
×
1
\bm{X}_{n\times (m+1)},\overrightarrow {w}_{(m+1)\times 1}
Xn×(m+1),w(m+1)×1,则变为:

由链式求导法则和公式当
y
=
∣
∣
x
→
∣
∣
2
=
(
∑
i
=
1
m
x
i
2
)
2
=
(
x
1
2
+
x
2
2
+
⋯
+
x
m
2
)
2
=
x
1
2
+
x
2
2
+
⋯
+
x
m
2
y=||\overrightarrow x||^2=(\sqrt{\sum\limits_{i=1}^{m} x_{i}^{2}})^{2}=(\sqrt{x_{1}^{2}+x_{2}^{2}+\dots +x_{m}^{2}})^{2}=x_{1}^{2}+x_{2}^{2}+\dots +x_{m}^{2}
y=∣∣x∣∣2=(i=1∑mxi2)2=(x12+x22+⋯+xm2)2=x12+x22+⋯+xm2时,有:
∂
y
∂
x
→
=
[
∂
f
(
x
→
)
∂
x
1
∂
f
(
x
→
)
∂
x
2
⋮
∂
f
(
x
→
)
∂
x
m
]
m
×
1
=
[
2
x
1
2
x
2
⋮
2
x
m
]
m
×
1
=
2
x
→
\frac{\partial {y}}{\partial\overrightarrow x}=\begin{bmatrix} \frac{\partial {f(\overrightarrow x)}}{\partial{x_{1}}}\\ \frac{\partial {f(\overrightarrow x)}}{\partial{x_{2}}}\\ \vdots \\ \frac{\partial {f(\overrightarrow x)}}{\partial{x_{m}}} \end{bmatrix}_{m\times 1}=\begin{bmatrix} 2x_{1}\\ 2x_{2}\\ \vdots \\ 2x_{m} \end{bmatrix}_{m\times 1}=2\overrightarrow x
∂x∂y=
∂x1∂f(x)∂x2∂f(x)⋮∂xm∂f(x)
m×1=
2x12x2⋮2xm
m×1=2x
可知,

