参考书籍《最优化:建模、算法与理论》
最小二乘法:常见于线性 / 非线性方程问题,其思想是极小化误差的的 ℓ2 范数平方,即:
m
i
n
x
∈
R
n
∑
i
=
1
m
(
b
i
−
ϕ
i
(
x
)
)
2
min_{x\in {R^n}}\sum_{i=1}^{m}(b_i - \phi_i(x))^2
minx∈Rni=1∑m(bi−ϕi(x))2
当m < n时,最优解很可能不止一个。
正则化:为了让解具有某种光滑性以及克服问题的病态性质,常常会加入一个正则项,则改进模型为:
m
i
n
x
∈
R
n
∑
i
=
1
m
(
b
i
−
ϕ
i
(
x
)
)
2
+
μ
∣
∣
x
∣
∣
n
m
min_{x\in {R^n}}\sum_{i=1}^{m}(b_i - \phi_i(x))^2 + \mu||x||_{n}^{m}
minx∈Rni=1∑m(bi−ϕi(x))2+μ∣∣x∣∣nm
正则项的含义是我们需要其同时满足“误差尽量小”以及“欧几里得长度尽量短”,参数μ的作用是调整最小二乘项和正则项的权重,当μ较大时该模型更侧重于 ℓ2 范数较小的解。
最大似然估计:是统计中常用的一种估计概率分布的方法,其通过最大化似然函数,使得观测数据尽可能地服从假定的模型。常用于从数据反推概率分布模型。
假设最大似然估计存在,则求解最大似然估计本质上是在一族分布中寻找最有可能产生该样本的参数,实际中似然函数的对数的最大值往往更容易求解,所以在统计中更倾向于使用对数似然函数 ℓ(x)。
似然函数:在参数x下的数据集 {ai, i = 1, 2,··· ,n} 发生的概率
代价、损失、收益函数:其目标函数或者是极小化代价(损失),或者是极大化收益,或者是两者兼顾。
泛函、变分:一般来说,能量泛函是定义在函数空间上的,即相应优化问题的自变量是无穷维空间中的函数.我们可以通过变分来得到其相应的最优性条件等。实际中常用的另一种方式,是利用合适的离散化,将能量泛函的极小化问题从无穷维空间中拉回到有限维空间中,从而得到相应问题的离散解。
松弛问题:原始问题不容易求解时,常用技巧为松弛,基本思想是:在保留原问题部分性质的条件下,使用简单的项替代目标函数中难以处理的项,进而使得问题更易求解。

在机器学习中,监督学习的任务是根据给定包含输入信息的数据集,学习一个模型,使得模型能够对新的输入数据做出好的预测,经典的监督学习包括回归和分类两类问题。
在分类问题中,输出变量取值于离散空间.对于二分类问题,预测变量只有两个取值,即 −1, 1。
概率图模型是概率论中一个重要的概念,它是一种利用图结构来描述多元随机变量之间条件独立关系的概率模型,对于高维空间中的概率模型的研究具有重要作用。当概率模型中变量比较多时,其相应的依赖关系也会比较复杂,图模型可以帮助我们更加直观地了解随机变量之间的条件独立关系。
马尔可夫性质:一个随机过程在给定现在状态及所有过去状态情况下,其未来状态的条件概率分布仅依赖于当前状态,换而言之,在给定现在状态时,它与过去状态(即该过程的历史路径)是条件独立的。
相位恢复是信号处理中的一个重要问题,它是从信号在某个变换域的幅度测量值来恢复该信号。相位恢复问题本质上是求解如下的二次方程组:
b
k
2
=
∣
a
ˉ
k
T
x
∣
2
,
k
=
1
,
2
,
.
.
.
,
m
b_{k}^{2} = |\bar{a}_{k}^Tx|^2,k = 1,2,...,m
bk2=∣aˉkTx∣2,k=1,2,...,m
求解二次方程组问题是NP难得,可将二次方程组转化为以下两种模型求解:
最小二乘模型:将二次方程组转换为非线性最小二乘问题:
min
x
∈
C
n
∑
(
∣
a
ˉ
k
T
x
∣
2
−
b
i
2
)
2
\min_{x\in{C^n}} \sum(|\bar{a}_{k}^Tx|^2 - b_i^2)^2
x∈Cnmin∑(∣aˉkTx∣2−bi2)2
相位提升:
∵
∣
a
ˉ
k
T
x
∣
2
=
a
ˉ
i
T
x
x
^
T
a
i
=
T
r
(
x
x
^
T
a
i
a
ˉ
i
T
)
\because{|\bar{a}_{k}^Tx|^2 = \bar{a}_i^Tx\hat{x}^Ta_i = Tr(x\hat{x}^Ta_i\bar{a}_i^T)}
∵∣aˉkTx∣2=aˉiTxx^Tai=Tr(xx^TaiaˉiT) ;
令
X
=
x
x
^
T
X=x\hat{x}^T
X=xx^T,则二次方程组可转化为
T
r
(
X
a
i
a
ˉ
i
T
)
=
b
i
2
,
i
=
1
,
2
…
,
m
;
X
⪰
0
,
r
a
n
k
(
X
)
=
1
Tr(Xa_i\bar{a}_i^T) = b_i^2,i = 1,2…,m;X ⪰ 0, rank(X) = 1
Tr(XaiaˉiT)=bi2,i=1,2…,m;X⪰0,rank(X)=1
∴
\therefore
∴ X即为方程组得解
主成分分析是数据处理和降维中的一个重要技巧,它提供了一种将高维空间中的点在低维子空间中表达的方法。其思想是寻找样本点方差最大的若干方向构成的子空间,之后将数据点投影到该子空间内来实现降维。
矩阵分离问题,也称鲁棒主成分分析,也是一类重要的低秩矩阵计算问题.给定矩阵 M ∈ Rm×n,将它分解成低秩矩阵 X 和稀疏矩阵 S,使得 X + S = M,同时尽量使得矩阵 X 的秩和矩阵 S 的 ℓ0 范数都比较小。

字典学习的目的就是将已有的(超)大规模的数据集进行压缩,找到蕴藏在这些数据点背后的最基本的原理。字典学习模型不同于多元线性回归模型,我们需要在字典学习模型中同时解出字典 D 和系数 x。
聚类分析是统计学中的一个基本问题,其在机器学习、数据挖掘、模式识别和图像分析中有着重要应用。聚类分析的任务就是将一些无标签的数据点按照某种相似度来进行归类,进而从数据点本身来学习其内蕴的类别特征。
小波分析是图像重构的另外一种方法.它通过不同尺度变化对失真图像进行多尺度分析,进而保留想要的尺度信息,去掉噪声等对应的干扰信息。小波分析的一个最重要的概念是小波框架,它是空间中基函数的推广。具体地,将图像理解成一个向量 x ∈ R n x ∈ R^n x∈Rn,令 W ∈ R m × n W ∈ R^{m×n} W∈Rm×n 为小波框架。
推荐书籍:《强化学习(第2版)》
强化学习处理的实际问题千差万别,但是它们一般可以抽象出智能体(agent)和环境(environment)两个概念.智能体持续地与环境互动并从环境中学到经验和规则,如下图所示。智能体在状态 st 下执行动作 at后,环境根据其内在的规则回应,到达新的状态 st+1,奖励 rt+1,这个系统持续不断地重复这个过程,直到系统中止。
强化学习经常可以用马尔可夫决策过程(Markov decision process,MDP)来描述,在马尔可夫决策过程中,环境状态转移的概率只取决于当前的状态和动作,而与所有历史信息无关,环境所反馈的奖励的期望也只依赖于当前的状态和动作。
强化学习跟其他机器学习相比有如下不同点:
