深度学习
是机器学习的分支,以人工神经网络为基础,对数据的特征进行学习的方法。
机器学习和深度学习的区别
a. 特征抽取
机器学习:人工的特征抽取过程
深度学习:自动的进行特征抽取
b. 数据量
机器学习:数据量少,效果不好特别好
深度学习:数据量多,效果更好
框架
a. 目前企业中常用的深度学习框架有很多,比如说Tensorflow,Caffe2,Keras,Theano, Pytorch,Chainer,DyNet,MXNet,CNTK 等等
b. Pytorch的使用和python的语法相同,整个操作类似Numpy的操作,并且Pytorch使用的是动态计算,会让代码调试变得更加简单。
人工神经网络(ANN,Artificial Neural Network)简称神经网络或者类神经网络,是一种模仿生物 神经网络的结构和功能的数学模型,用于对函数进行估计或者近似。
神经网络的基本单元,相互连接,组成神经网络。
如果神经元上的计算值超过“阈值”,神经元就会被“激活”,也说成是“兴奋”,在这种状态下,这个神经元就会向其他神经元发送信息。
M-P神经网络如下图:

数学公式如下:
t
=
f
(
W
T
A
+
b
)
t= f(W^TA+b)
t=f(WTA+b)
人工神经网络的区别就是神经元连接的不同,所以学习神经网络的关键就是神经元怎么搭。
是最基本的神经网络形式
由有限个神经元构成,所有神经元的输入向量都是同一个向量。
由于每一个神经元都会产生一个标量结果,所以,单层神经元的输出是一个向量,向量的维数等于神经元的个数。

最后,要知道最常见的神经网络应该是两层的,一个是输入层,一个是隐藏层,这一种单层神经网络并不是很常见。
感知器是由两层神经网络组成,输入层和输出层,输出层是MP-神 经元。

感知器是一个非常常见的二分类模型。
把 一个n维向量空间 用一个超平面分割为两个部分。作用:给定一个输入向量,超平面可以判断这个向量是属于超平面的哪一面,也就得到了正 和 负 两种输出。
多层神经网络就是由单层神经网络进行叠加之后得到的。
概念: 当前一层和前一层的每一个神经元相互链接,我们称当前这一层为全连接层。

全连接层,也就是在前一层的输出的基础上进行一次
Y
=
W
x
+
b
Y=Wx + b
Y=Wx+b 的变化。(不考虑激活函数的情况下)
如果一层全连接层解决不了分类问题,那么就会想到再加一层全连接层。
但是可以发现,两个线性函数是可以合并的,最后依旧只能拟合出直线,所以说,就需要引入激活函数的概念。
常见的激活函数:

深度学习的思想:
输入的最原始、最基本的数据,通过模型来进行特征抽取,进行更加高级的特征学习,然后通过传入的数据来确定合适的参数,让模型去更好的拟合数据。
sigmoid:不咋用了,会导致梯度爆炸,而且计算复杂
多用relu,因为比较简单,而且可以去噪!