• 基于蜉蝣优化的BP神经网络(分类应用) - 附代码


    基于蜉蝣优化的BP神经网络(分类应用) - 附代码


    摘要:本文主要介绍如何用蜉蝣算法优化BP神经网络,利用鸢尾花数据,做一个简单的讲解。

    1.鸢尾花iris数据介绍

    本案例利用matlab公用的iris鸢尾花数据,作为测试数据,iris数据是特征为4维,类别为3个类别。数据格式如下:

    特征1特征2特征3类别
    单组iris数据5.32.11.21

    3种类别用1,2,3表示。

    2.数据集整理

    iris数据总共包含150组数据,将其分为训练集105组,测试集45组。如下表所示:

    训练集(组)测试集(组)总数据(组)
    10545150

    类别数据处理:原始数据类别用1,2,3表示为了方便神经网络训练,类别1,2,3分别用1,0,0;0,1,0;0,0,1表示。

    当进行数据训练对所有输入特征数据均进行归一化处理。

    3.蜉蝣优化BP神经网络

    3.1 BP神经网络参数设置

    通常而言,利用智能算法一般优化BP神经网络的初始权值和阈值来改善BP神经网络的性能。本案例基于iris数据,由于iris数据维度不高,采用简单的BP神经网络。神经网络参数如下:

    神经网络结构

    图1.神经网络结构

    神经网络参数如下:

    %创建神经网络
    inputnum = 4;     %inputnum  输入层节点数 4维特征
    hiddennum = 10;     %hiddennum  隐含层节点数
    outputnum = 3;     %outputnum  隐含层节点数
    net = newff( minmax(input) , [hiddennum outputnum] , { 'logsig' 'purelin' } , 'traingdx' ) ;
    %设置训练参数
    net.trainparam.show = 50 ;
    net.trainparam.epochs = 200 ;
    net.trainparam.goal = 0.01 ;
    net.trainParam.lr = 0.01 ;
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10

    3.2 蜉蝣算法应用

    蜉蝣算法原理请参考:https://blog.csdn.net/u011835903/article/details/109253587

    蜉蝣算法的参数设置为:

    popsize = 10;%种群数量
        Max_iteration = 15;%最大迭代次数
    lb = -5;%权值阈值下边界
    ub = 5;%权值阈值上边界
    %  inputnum * hiddennum + hiddennum*outputnum 为阈值的个数
    %  hiddennum + outputnum 为权值的个数
    dim =  inputnum * hiddennum + hiddennum*outputnum + hiddennum + outputnum ;%  inputnum * hiddennum + hiddennum*outputnum维度
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8

    这里需要注意的是,神经网络的阈值数量计算方式如下:

    本网络有2层:

    第一层的阈值数量为:4*10 = 40; 即inputnum * hiddennum;

    第一层的权值数量为:10;即hiddennum;

    第二层的阈值数量为:3*10 = 30;即hiddenum * outputnum;

    第二层权值数量为:3;即outputnum;

    于是可知我们优化的维度为:inputnum * hiddennum + hiddennum*outputnum + hiddennum + outputnum = 83;

    适应度函数值设定:

    本文设置适应度函数如下:
    f i t n e s s = a r g m i n ( T r a i n D a t a E r r o r R a t e + T e s t D a t a E r r o r R a t e ) fitness = argmin(TrainDataErrorRate + TestDataErrorRate) fitness=argmin(TrainDataErrorRate+TestDataErrorRate)
    其中TrainDataErrorRate,TestDataErrorRate分别为训练集和测试集的错误分类率。适应度函数表明我们最终想得到的网络是在测试集和训练集上均可以得到较好结果的网络。

    4.测试结果:

    从蜉蝣算法的收敛曲线可以看到,整体误差是不断下降的,说明蜉蝣算法起到了优化的作用:
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    5.Matlab代码

  • 相关阅读:
    硒化镉量子点 CdSe QDs 修饰巯基SH/氨基/NH2/羧基COOH/PEG 的产品
    vivo 基于 JaCoCo 的测试覆盖率设计与实践
    工作之余想线上学习软件测试靠谱么?
    微信小程序云开发 微信支付功能 逻辑+踩坑
    WPF 使用动画绘制一个点赞大拇指
    maven插件exec-maven-plugin、maven-antrun-plugin使用详解
    php apache 后台超时设置
    阿里云优惠券如何领取(阿里云在哪领取优惠券)
    【工具类】阿里域名关联ip(python版)
    神经网络的图像识别技术,神经网络图像角度分析
  • 原文地址:https://blog.csdn.net/u011835903/article/details/133530314