人工神经网络可以做任何事情
简化的原理图:
部分结构是与生俱来(非条件反射)
大部分是经过后天学习建立连接(也可能消除连接)
记忆的本职是改变突触强度
名词解释:
输入节点: x1,x2,x3
输出节点: y
权向量: 0.3,0.3,0.3 (每个输入节点权值可不同)
偏置因子: 0.4 (y=0.3*x1 + 0.3*x2 + 0.3*x3 - 0.4 )
激活函数: 用于解决非线性的问题
学习率:
y是一个符号函数的值,符号函数的结果一般是1和-1,可以理解为yes 和 no,通过对输入条件的判断,然后加上权值,最终判断结论是yes 还是 no。
算法概述:
收敛条件:
几何解释:
学习率的选择:
单层感知器的局限:
y=0.3*x1 + 0.3*x2 + 0.3*x3 - 0.4
上述的函数是处理线性关系的,但是如果输入的值与结果非线性关系,那么此时就不使用了,激活函数应运而生,用来解决此类问题。