• 基于随机无迹sigma点变异策略的改进哈里斯鹰优化算法


    一、理论基础

    1、哈里斯鹰优化算法

    请参考这里

    2、改进的哈里斯鹰优化算法

    (1)反向学习策略

    作为改善种群多样性的有效方法,反向学习(Opposition-based learning, OBL)策略被广泛应用于改进智能算法。OBL的主要思想是同时考虑候选解和反向解的相对优点,选择更好的解进入下一代种群,从而更好地提高算法的收敛速度和求解精度。
    定义:设 X = ( x 1 , x 2 , ⋯   , x D ) X=(x_1,x_2,\cdots,x_D) X=(x1,x2,,xD) D D D维空间中的一个点,其中 x j ∈ [ L b j , U b j ] , j = 1 , 2 , ⋯   , D x_j\in[Lb_j,Ub_j],j=1,2,\cdots,D xj[Lbj,Ubj],j=1,2,,D,将 X X X的反向点设为 X ˘ = ( x ˘ 1 , x ˘ 2 , ⋯   , x ˘ D ) \breve X=(\breve x_1,\breve x_2,\cdots,\breve x_D) X˘=(x˘1,x˘2,,x˘D),准反向点设为 X ~ = ( x ~ 1 , x ~ 2 , ⋯   , x ~ D ) \tilde X=(\tilde x_1,\tilde x_2,\cdots,\tilde x_D) X~=(x~1,x~2,,x~D),准反射点设为 X ˉ = ( x ˉ 1 , x ˉ 2 , ⋯   , x ˉ D ) \bar X=(\bar x_1,\bar x_2,\cdots,\bar x_D) Xˉ=(xˉ1,xˉ2,,xˉD),其中: x ˘ j = L b j + U b j − x j (1) \breve x_j=Lb_j+Ub_j-x_j\tag{1} x˘j=Lbj+Ubjxj(1) x ~ j = r a n d [ ( L b j + U b j 2 ) , ( L b j + U b j − x j ) ] (2) \tilde x_j=rand\left[\left(\frac{Lb_j+Ub_j}{2}\right),(Lb_j+Ub_j-x_j)\right]\tag{2} x~j=rand[(2Lbj+Ubj),(Lbj+Ubjxj)](2) x ˉ j = r a n d [ ( L b j + U b j 2 ) , x j ] (3) \bar x_j=rand\left[\left(\frac{Lb_j+Ub_j}{2}\right),x_j\right]\tag{3} xˉj=rand[(2Lbj+Ubj),xj](3)根据HHO算法开发阶段的四种更新方法,当 r ≥ 0.5 , ∣ E ∣ ≥ 0.5 r\geq0.5,|E|\geq0.5 r0.5,E0.5时,鹰群个体需要在大范围内搜索以捕捉猎物。此时,为了扩大搜索范围,在使用原始公式进行位置更新后,对第 i i i个个体 X i o l d ( t + 1 ) X_i^{old}(t+1) Xiold(t+1)采用准反向学习策略。因此,它在远离候选解的邻域中生成一个准反向解 X ~ i ( t + 1 ) \tilde X_i(t+1) X~i(t+1)。贪婪选择策略用于从准反向解和原始个体中选择父代个体以进入下一代,如式(4)所示。 X i ( t + 1 ) = { X i o l d ( t + 1 ) ,   if    F ( X i o l d ( t + 1 ) ) < F ( X ~ i ( t + 1 ) ) X ~ i ( t + 1 ) , otherwise (4) X_i(t+1)=

    \begin{dcases}X_i^{old}(t+1),\quad\,\text{if}\,\,F(X_i^{old}(t+1))<F(\tilde X_i(t+1))\\[2ex]\tilde X_i(t+1),\quad\quad\text{otherwise}\end{dcases}" role="presentation" style="position: relative;">