线性回归一般用于数据预测,预测结果一般为实数。
逻辑回归一般用于分类预测,预测结果一般为某类可能的概率。

定义模型

定义 Loss 函数,用于判断模型好坏,此处选取的 MSE

通过最小化 Loss 函数,来得到更好的模型

通过梯度下降来优化参数

两个参数的梯度下降求法

可视化

Linear regression 是没有局部最优解的
分别对
w
w
w 和
b
b
b 求偏导


引入多次项,定义更复杂的 Model

当模型越复杂可能会出现 Overfitting 的情况

重新定义模型,考虑物种对结果的影响


考虑其他 feature 对结果的影响,重新定义Model

对 Loss function 加入 正则化来解决 Overfitting 问题

正则化:期待参数越小的 function,越平滑,output 对输入的变化是比较不敏感的,可以对噪点不敏感。

λ 越大说明越考虑
w
w
w 本身大小,而越不考虑本身的 Loss 大小,所以在 training data 上的表现越来越差。
为什么不考虑 b b b,因为我们需要的是一个平滑的 function,而 b b b 的大小不会改变 function 的平滑程度。

假设数据属于高斯分布(也可以假设属于其他分布,此处有主观意识影响),然后通过高斯模型来解决问题。



求出 μ 和 ∑


用了所有feature ,结果还是坏掉了

考虑给两个Model 公用 covariance matrix,这样就只需要较少的 parameters(不容易 overfitting)

求出 μ 和 ∑

发现公用 ∑ 后,此时的 boundary 是线性的,正确率提高了很多。

所以总结为以下 3 步:

假设所有的 feture 是 independent,其概率就可以表示为下面的形式,这种模型属于 Naive Bayes Classifier

分析 Posterior Probability




通过公式推导发现:其最终也可以写成
σ
(
w
∗
x
+
b
)
σ(w * x + b)
σ(w∗x+b)
推出来的 σ 就是 sigmoid 函数,其图像表示如下:

用图可表示为如下形式:


最大化 Likelihood 就是最小化 − l n L ( w , b ) -ln L(w, b) −lnL(w,b),展开如下形式:

这种 Loss 函数就是 cross entropy 代表的含义是两个 distribution 有多接近,越小越接近




w w w 的 update 取决于三件事:

为什么逻辑回归不能采用 MSE 作为 Loss 函数?



如果逻辑回归问题用 square error 时,可能出现在远处梯度就为 0 的情况,而不能更新。
Discriminative Model 就是直接定义函数,然后优化函数的 Model,让机器自己找 distribution。
Generative Model 是先假设一个 distribution,然后再求出参数值 (μ 和 ∑) 带入 Model。

准确率有所不同

Generative Model 做了一些假设
举例:
此例子下用 Generative Model 得到 data1 的几率小于 0.5(因为 Navie Bayes Model 假设两个 feature 独立)



在 training data 少的时候,Generative Model 可能表现更好,不容易被噪点影响。

多分类可以用如下模型解决
softmax 也可以通过 Gaussain Model 推导出来

多分类问题 Loss 函数 也可以用 Cross Entropy 定义

下面这种情况逻辑回归解决起来很难。


所以我们可以考虑对特征 (feature) 进行转换,然后再用逻辑回归解决

可以将 logistic regression models 多个 cascading 起来,让机器自己找 feature transformation

机器找出来的情况如下:

可以把这些 Logistic Regression 叠在一起,某一个 Logistic Regression 可以是其他 Logistic Regression 的 output。

可以给这个 Model 一个新名字:Neural Network (Deep learning)