感知机是二类分类的线性分类模型,其输入为实例的特征向量,输出为实例的类别
假设输入空间(特征空间)是
x
∈
R
n
,
输出空间是
y
=
{
−
1
,
1
}
f
(
x
)
=
s
i
g
n
(
w
∗
x
+
b
)
w
∈
R
n
称之为权值或权值向量,
b
∈
R
叫做偏置。
s
i
g
n
(
x
)
=
{
+
1
,
x
≥
0
−
1
,
x
<
0
假设输入空间(特征空间)是x\in{R^n},输出空间是y=\{-1,1\}\\f(x)=sign(w*x + b)\\ w\in{R^n}称之为权值或权值向量,b\in{R}叫做偏置。\\ sign(x)=
给定一个数据集 T = { ( x 1 , y 1 ) , ( x 2 , y 2 ) … ( x N , Y N ) } w ∗ x + b = 0 能将数据集的正实例点和负实例点完全划分到超平面的两侧。 即对 y i = + 1 的实例 i , 有 w ∗ x i + b > 0 , 对所有的 y i = − 1 的实例有 w ∗ x i + b < 0 给定一个数据集T=\{(x_1,y_1),(x_2,y_2)\ldots(x_N,Y_N)\}\\w*x+b=0\\ 能将数据集的正实例点和负实例点完全划分到超平面的两侧。\\即对y_i=+1的实例i,有w*x_i+b >0,对所有的y_i=-1的实例有w*x_i+b<0 给定一个数据集T={(x1,y1),(x2,y2)…(xN,YN)}w∗x+b=0能将数据集的正实例点和负实例点完全划分到超平面的两侧。即对yi=+1的实例i,有w∗xi+b>0,对所有的yi=−1的实例有w∗xi+b<0
感知机的损失函数, L ( w , b ) = − ∑ x i ∈ M y i ( w ∗ x i + b ) 感知机的损失函数,L(w,b)=-\sum_{x_i\in M}{y_i(w*x_i +b)} 感知机的损失函数,L(w,b)=−xi∈M∑yi(w∗xi+b)
输入:训练数据集
T
=
{
(
X
1
,
Y
1
)
…
}
其中
y
i
∈
y
=
{
−
1
,
+
1
}
,
i
=
1
、
2
…
N
;
学习率
η
(
0
<
η
≤
1
)
T=\{(X_1,Y_1)\ldots\}其中y_i\in y=\{-1,+1\},i=1、2\ldots N; 学习率\eta(0<\eta\le1)\qquad
T={(X1,Y1)…}其中yi∈y={−1,+1},i=1、2…N;学习率η(0<η≤1)
输出:w,b;感知机模型f(x)=sign(w*x + b)
w ← w + η y i x i b ← b + η y i w \leftarrow w+\eta y_ix_i\\ b \leftarrow b+\eta y_i \qquad w←w+ηyixib←b+ηyi4. 转至2,直到训练集中没有误分类点
输入:训练数据集 T = { ( X 1 , Y 1 ) … } 其中 y i ∈ y = { − 1 , + 1 } , i = 1 、 2 … N ; T=\{(X_1,Y_1)\ldots\}其中y_i\in y=\{-1,+1\},i=1、2\ldots N; T={(X1,Y1)…}其中yi∈y={−1,+1},i=1、2…N;
y i ( w ^ o p t ∗ x ^ i ) = y i ( w o p t ∗ x i + b o p t ) ≥ γ y_{i}(\hat w_{opt}* \hat x_i)=y_i(w_{opt}*x_{i} + b_{opt})\ge \gamma yi(w^opt∗x^i)=yi(wopt∗xi+bopt)≥γ
k ≤ ( R γ ) 2 k\le (\frac{R}{\gamma})^2 k≤(γR)2
w,b关于 ( x i , y i ) (x_i, y_i) (xi,yi)的增量分别为 α i y i x i 和 α i y i \alpha_iy_ix_i和\alpha_iy_i αiyixi和αiyi
w = ∑ i = 1 N α i y i x i b = ∑ i = 1 N α i y i w=\sum_{i=1}^{N}\alpha_iy_ix_i \\b=\sum_{i=1}^{N}\alpha_iy_i w=i=1∑Nαiyixib=i=1∑Nαiyi
输入:线性可分的数据集 T = { ( X 1 , Y 1 ) … } 其中 y i ∈ y = { − 1 , + 1 } , i = 1 、 2 … N ; 学习率 η ( 0 < η ≤ 1 ) T=\{(X_1,Y_1)\ldots\}其中y_i\in y=\{-1,+1\},i=1、2\ldots N; 学习率\eta(0<\eta\le1) T={(X1,Y1)…}其中yi∈y={−1,+1},i=1、2…N;学习率η(0<η≤1)
输出: α , \alpha, α,b;感知机模型 f ( x ) = s i g n ( ∑ j = 1 N α i y i x i × x + b ) f(x)=sign\biggl( \sum_{j=1}^{N} \alpha_iy_ix_i \times x+b\biggl) f(x)=sign(∑j=1Nαiyixi×x+b),其中 α = ( α 1 , α 1 , … α N ) T \alpha = (\alpha_1, \alpha_1, \ldots \alpha_N )^T α=(α1,α1,…αN)T
α i ← α i + η b ← b + η y i \alpha_i \leftarrow \alpha_i + \eta\\ b \leftarrow b+ \eta y_i αi←αi+ηb←b+ηyi
Gram矩阵:训练集的内积计算出来以矩阵的形式存储 G = ∣ x i × x j ∣ N × N G = |x_i\times x_j|_{N\times N} G=∣xi×xj∣N×N