• 神经网络数据量多少合适,神经网络计算量太大吗


    1、神经网络优缺点,

    优点:

    (1)具有自学习功能。例如实现图像识别时,只在先把许多不同的图像样板和对应的应识别的结果输入人工神经网络,网络就会通过自学习功能,慢慢学会识别类似的图像。

    自学习功能对于预测有特别重要的意义。预期未来的人工神经网络计算机将为人类提供经济预测、市场预测、效益预测,其应用前途是很远大的。

    (2)具有联想存储功能。用人工神经网络的反馈网络就可以实现这种联想。

    (3)具有高速寻找优化解的能力。寻找一个复杂问题的优化解,往往需要很大的计算量,利用一个针对某问题而设计的反馈型人工神经网络,发挥计算机的高速运算能力,可能很快找到优化解。

    缺点:

    (1)最严重的问题是没能力来解释自己的推理过程和推理依据。

    (2)不能向用户提出必要的询问,而且当数据不充分的时候,神经网络就无法进行工作。

    (3)把一切问题的特征都变为数字,把一切推理都变为数值计算,其结果势必是丢失信息。

    (4)理论和学习算法还有待于进一步完善和提高。

    扩展资料:

    神经网络发展趋势

    人工神经网络特有的非线性适应性信息处理能力,克服了传统人工智能方法对于直觉,如模式、语音识别、非结构化信息处理方面的缺陷,使之在神经专家系统、模式识别、智能控制、组合优化、预测等领域得到成功应用。

    人工神经网络与其它传统方法相结合,将推动人工智能和信息处理技术不断发展。近年来,人工神经网络正向模拟人类认知的道路上更加深入发展,与模糊系统、遗传算法、进化机制等结合,形成计算智能,成为人工智能的一个重要方向,将在实际应用中得到发展。

    将信息几何应用于人工神经网络的研究,为人工神经网络的理论研究开辟了新的途径。神经计算机的研究发展很快,已有产品进入市场。光电结合的神经计算机为人工神经网络的发展提供了良好条件。

    神经网络在很多领域已得到了很好的应用,但其需要研究的方面还很多。其中,具有分布存储、并行处理、自学习、自组织以及非线性映射等优点的神经网络与其他技术的结合以及由此而来的混合方法和混合系统,已经成为一大研究热点。

    由于其他方法也有它们各自的优点,所以将神经网络与其他方法相结合,取长补短,继而可以获得更好的应用效果。目前这方面工作有神经网络与模糊逻辑、专家系统、遗传算法、小波分析、混沌、粗集理论、分形理论、证据理论和灰色系统等的融合。

    参考资料:

    谷歌人工智能写作项目:小发猫

    2、c神经网络中间层的层数对神经网络的性能有何影响

    神经网络中间层数目越多,计算精度越高,但是计算量也越大参考:一个技术宅的学习笔记。所以适当的中间层数目选择很重要,既要满足计算精度要求,又要保证网络结构尽可能紧凑,计算量不至于太大。而且中间层数目增加到一定程度,计算精度的提高几乎可以忽略不计,甚至精度会下降。

    3、神经网络对输入变量个数有没有要求,六十个可以吗?

    可以,但是网络规模太大,很臃肿,需要调整的参数过多,影响收敛速度。
    关于隐层节点数:在BP 网络中,隐层节点数的选择非常重要,它不仅对建立的神经网络模型的性能影响很大,而且是训练时出现“过拟合”的直接原因,但是目前理论上还没有一种科学的和普遍的确定方法。 目前多数文献中提出的确定隐层节点数的计算公式都是针对训练样本任意多的情况,而且多数是针对最不利的情况,一般工程实践中很难满足,不宜采用。事实上,各种计算公式得到的隐层节点数有时相差几倍甚至上百倍。为尽可能避免训练时出现“过拟合”现象,保证足够高的网络性能和泛化能力,确定隐层节点数的最基本原则是:在满足精度要求的前提下取尽可能紧凑的结构,即取尽可能少的隐层节点数。研究表明,隐层节点数不仅与输入/输出层的节点数有关,更与需解决的问题的复杂程度和转换函数的型式以及样本数据的特性等因素有关。
    在确定隐层节点数时必须满足下列条件:
    (1)隐层节点数必须小于N-1(其中N为训练样本数),否则,网络模型的系统误差与训练样本的特性无关而趋于零,即建立的网络模型没有泛化能力,也没有任何实用价值。同理可推得:输入层的节点数(变量数)必须小于N-1。
    (2) 训练样本数必须多于网络模型的连接权数,一般为2~10倍,否则,样本必须分成几部分并采用“轮流训练”的方法才可能得到可靠的神经网络模型。
    总之,若隐层节点数太少,网络可能根本不能训练或网络性能很差;若隐层节点数太多,虽然可使网络的系统误差减小,但一方面使网络训练时间延长,另一方面,训练容易陷入局部极小点而得不到最优点,也是训练时出现“过拟合”的内在原因。因此,合理隐层节点数应在综合考虑网络结构复杂程度和误差大小的情况下用节点删除法和扩张法确定。

    4、思考:神经网络比起多元回归来说,它的优点是什么?

    具有学习能力。
    1、例如实现图像识别时,只在先把许多不同的图像样板和对应的应识别的结果输入人工神经网络,网络就会通过自学习功能,慢慢学会识别类似的图像。自学习功能对于预测有特别重要的意义。预期未来的人工神经网络计算机将为人类提供经济预测、市场预测、效益预测,其应用前途是很远大的。
    2、具有联想存储功能。用人工神经网络的反馈网络就可以实现这种联想。
    3、具有高速寻找优化解的能力。寻找一个复杂问题的优化解,往往需要很大的计算量,利用一个针对某问题而设计的反馈型人工神经网络,发挥计算机的高速运算能力,可能很快找到优化解。

    5、神经网络运算一般配多少G显卡

    8GB。
    一个神经网络,除了看模型的性能(准确率/精度)以外,还要考虑在训练/推理时模型占用的内存大小和计算量,毕竟一个效果再好的模型,如果需要内存才能跑起来,综上总的算下来,神经网络运算一般配8GB显卡就够用了。

    6、人工神经网络的特点优点

    人工神经网络的特点和优越性,主要表现在三个方面:
    第一,具有自学习功能。例如实现图像识别时,只在先把许多不同的图像样板和对应的应识别的结果输入人工神经网络,网络就会通过自学习功能,慢慢学会识别类似的图像。自学习功能对于预测有特别重要的意义。预期未来的人工神经网络计算机将为人类提供经济预测、市场预测、效益预测,其应用前途是很远大的。
    第二,具有联想存储功能。用人工神经网络的反馈网络就可以实现这种联想。
    第三,具有高速寻找优化解的能力。寻找一个复杂问题的优化解,往往需要很大的计算量,利用一个针对某问题而设计的反馈型人工神经网络,发挥计算机的高速运算能力,可能很快找到优化解。

    7、神经网络关于BATCH_SIZE与STEP的问题

    在考虑这个问题时先要明白Batch size的意义。刚开始因为批量梯度下降法容易使得网络陷入局部收敛,并且样本量太大,训练速度很慢,因此就提出了随机梯度下降法。不过当时的SGD算法中的batch size=1,效果并不好,所以后面就又提出了mini-batch SGD,也就有了这里的batch size。因此,batch size不能过小,不然每次所利用的样本量太少,所包含的信息也少,我觉得至少8吧。当然也不能太大,不然就跟批量下降一样的。所以建议取8~256左右,可以根据样本量进行调整,当然还取决于你的电脑内存。

    8、Hopfield神经网络

    Hopfield神经网络(Hopfield Neural Network,简称 HNN),是美国加州理工学院物理学家Hopfield教授1982年提出的一种反馈型神经网络,信号不但能向前,还能向后传递(输出信号又反馈回来变成输入信号。而前面所介绍的BP网络是一种前馈网络,信号只能向前传递)。他在Hopfield神经网络中引入了“能量函数”概念,使网络的运行稳定性的判断有了可靠依据。Hopfield神经网络的权值不是经过反复学习获得的,而是按照一定规则计算出来的,一经确定就不再改变,而Hopfield神经网络的状态(输入、输出信号)会在运行过程中不断更新,网络演变到稳态时各神经元的状态便是问题的解。

    1985年,Hopfield和Tank研制了电子线路来模拟Hopfield网络,较好地解决了优化组合问题中著名的TSP(旅行商)问题,找到了最佳解的近似解,为神经网络的复兴建立了不可磨灭的功劳。

    对于地球物理反演这种最优化问题,可以很方便地用Hopfield网络来实现。反演的目标函数等于Hopfield网络的“能量函数”,网络的状态(输入、输出信号)就是模型的参数,网络演变到稳态时各神经元的输入输出值便是反演问题的解。

    Hopfield神经网络分为离散型和连续型两种网络模型,分别记为DHNN(Discrete Hopfield Neural Network)和CHNN(Continues Hopfield Neural Network)。

    在前馈型网络中无论是离散的还是连续的,一般均不考虑输入与输出之间在时间上的滞后性,而只表达两者之间的映射关系。但在连续Hopfield神经网络中,考虑了输出与输入之间的延迟因素,因此需要用微分方程或差分方程来描述网络的动态数学模型。

    8.5.4.1 离散Hopfield神经网络

    离散Hopfield神经网络的拓扑结构如图8.12所示。这是一种单层全反馈网络,共有n个神经元。图8.12的特点是任意一个神经元的输出xi只能是0或1,均通过连接权wij反馈至所有神经元j作为它的输入xj。也就是说,每个神经元都通过连接权接收所有其他神经元输出反馈的信息,这样每一个神经元的输出都受其他所有神经元输出的控制,从而每个神经元的输出相互制约。每个神经元均设一个阀值Ti,以反映对输入噪声的控制。

    图8.12 离散Hopfield神经网络的拓扑结构[8]

    8.5.4.1.1 网络的状态

    离散Hopfield神经网络任意一个神经元的输出xj称为网络的状态,它只能是0或1。变化规律由下式规定:

    xj=f(netj) j=1,2,…,n(8.33)

    f( )为转移函数,离散 Hopfield神经网络的转移函数常用符号函数表示:

    地球物理反演教程

    其中netj为净输入:

    地球物理反演教程

    对离散Hopfield神经网络,一般有

    wij=0,wij=wji (8.36)

    这说明神经元没有自反馈,两个神经元的相互控制权值相同。

    离散Hopfield神经网络稳定时,每个神经元的状态都不再改变。此时的稳定状态就是网络的输出,记为

    地球物理反演教程

    8.5.4.1.2 网络的异步工作方式

    它是一种串行方式,网络运行时每次只改变一个神经元的状态,其他神经元的状态保持不变。

    8.5.4.1.3 网络的同步工作方式

    它是一种并行同步工作方式,所有神经元同时调整状态。

    8.5.4.1.4 网络的吸引子

    网络达到稳定状态时的输出X,称为网络的吸引子。

    8.5.4.1.5 网络的能量函数

    网络的能量函数定义为

    地球物理反演教程

    以上是矩阵形式,考虑无自反馈的具体展开形式为

    地球物理反演教程

    当网络收敛到稳定状态时,有

    ΔE(t)=E(t+1)-E(t)=0 (8.40)

    或者说:

    地球物理反演教程

    理论证明了如下两个定理[8]:

    定理1.对于DHNN,若按异步方式调整网络状态,且连接权矩阵W为对称阵,则对任意初始状态,网络都能最终收敛到一个吸引子。

    定理2.对于DHNN,若按同步方式调整网络状态,且连接权矩阵W为非负定对称阵,则对任意初始状态,网络都能最终收敛到一个吸引子。

    8.5.4.1.6 利用离散Hopfield神经网络进行反演

    在地球物理线性反演中,设有如下目标函数:

    地球物理反演教程

    对比式(8.38)和式(8.42)发现它们在形式上有很多相似之处。王家映的《地球物理反演理论》一书中,直接用式(8.42)和式(8.38)类比,公式显得复杂。本书设立一个新的目标函数ϕ,公式将会变得简洁得多:

    地球物理反演教程

    再对比式(8.38)和式(8.43),发现它们完全一样,只要设:

    X(t)=m,W=GTG,T=GTd (8.44)

    注意:式(8.43)的目标函数ϕ的极大值解就是原来目标函数φ极小值的解,它们是同解的。

    如果待反演的模型参数是离散的0或1值,那么可以直接应用离散Hopfield神经网络进行反演。但是一般它们都是连续的数值,所以还要将模型参数表示为二进制[1]:

    地球物理反演教程

    其中:Bij=0或1为二进制数;D和U为整数,取决于模型参数的大小和精度。这样第i个模型参数就用Bij表示为了二进制数。将式(8.45)代入目标函数式(8.43)后再与离散Hopfield神经网络的能量函数进行对比,确立新的等价关系后,就可以进行反演了。

    这个新的等价关系式可以参见王家映的《地球物理反演理论》[1]一书。

    反演的过程大致如下:

    (1)根据模型参数的大小范围和精度确定D和U,将初始输入模型参数变为二进制数。设立一个拟合精度标准,如相对均方差ε,设定一个最大迭代次数N(所有神经元的输出都修改一次称为一次迭代)。

    (2)利用数据方程的G矩阵(在一般情况下需用偏导数矩阵获得)计算网络的权值和阀值。

    (3)将二进制初始模型参数输入网络并运行网络。

    (4)把每次迭代网络输出值变为十进制模型参数,进行正演计算。如果拟合满足精度ε,则停止网络运行并输出反演结果。否则重复(2)~(4)步直到满足精度或达到最多迭代次数N为止。

    在一般情况下,地球物理数据方程的G矩阵是无法用解析式写出的,需要用偏导数矩阵获得,它是依赖于输入参数的,因此网络的每次迭代都要重新计算偏导数矩阵。这个计算量是很大的。因此他的反演过程和最小二乘法相似。此外,用Hopfield神经网络进行反演同样有可能陷入局部极值点(吸引子)。因此同样受初始模型的影响,需要尽量让初始模型接近真实模型。

    8.5.4.2 连续Hopfield神经网络(CHNN)[8]

    1984年,Hopfield把离散Hopfield神经网络发展为连续Hopfield神经网络。但所有神经元都同步工作,各输入输出量为随时间变化的连续的模拟量,这就使得CHNN比DHNN在信息处理的并行性、实时性方面更接近实际的生物神经网络工作机理。因此利用CHNN进行地球物理反演更加方便。

    CHNN可以用常系数微分方程来描述,但用模拟电子线路来描述,则更加形象直观,易于理解。图8.13为连续Hopfield神经网络的拓扑结构[8]。

    图8.13 连续Hopfield神经网络的拓扑结构[8]

    图8.13中每个神经元用一个运算放大器模拟,神经元的输入输出用放大器的输入输出电压表示,连接权用电导表示。每个放大器有一个正向输出和一个反向输出,分别表示兴奋和抑制。每个神经元还有一个用于设置激活电平的外界输入偏置电流作为阀值。

    这里由于篇幅关系不再累述。感兴趣的读者可以参考其他文献。

  • 相关阅读:
    IDEA撤回Git提交到本地仓库的代码
    iconfont在vue项目中的使用及如何在一个项目中引入多个iconfont图标库
    深究防火墙
    ESP8266-Arduino编程实例-三路红外寻迹传感器驱动
    Python+Django前后端分离
    中国电子学会2023年09月份青少年软件编程Scratch图形化等级考试试卷二级真题(含答案)
    PyTorch深度学习实战(17)——多任务学习
    ​软考-高级-系统架构设计师教程(清华第2版)【第2章 计算机系统基础知识-思维导图】​
    【js】日期控件的实现
    设计模式——2_A 访问者(Visitor)
  • 原文地址:https://blog.csdn.net/mynote/article/details/127437331