留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于深度确定性策略梯度的粒子群算法

鲁华祥 尹世远 龚国良 刘毅 陈刚

鲁华祥, 尹世远, 龚国良, 刘毅, 陈刚. 基于深度确定性策略梯度的粒子群算法[J]. 电子科技大学学报, 2021, 50(2): 199-206. doi: 10.12178/1001-0548.2020420
引用本文: 鲁华祥, 尹世远, 龚国良, 刘毅, 陈刚. 基于深度确定性策略梯度的粒子群算法[J]. 电子科技大学学报, 2021, 50(2): 199-206. doi: 10.12178/1001-0548.2020420
LU Hua-xiang, YIN Shi-yuan, GONG Guo-liang, LIU Yi, CHENG Gang. A Particle Swarm Optimization Algorithm Based on Deep Deterministic Policy Gradient[J]. Journal of University of Electronic Science and Technology of China, 2021, 50(2): 199-206. doi: 10.12178/1001-0548.2020420
Citation: LU Hua-xiang, YIN Shi-yuan, GONG Guo-liang, LIU Yi, CHENG Gang. A Particle Swarm Optimization Algorithm Based on Deep Deterministic Policy Gradient[J]. Journal of University of Electronic Science and Technology of China, 2021, 50(2): 199-206. doi: 10.12178/1001-0548.2020420

基于深度确定性策略梯度的粒子群算法

doi: 10.12178/1001-0548.2020420
基金项目: 国家自然科学基金(U19A2080, U1936106);北京市科技计划(Z181100001518006);高技术项目(31513070501, 1916312ZD00902201, XDA27040303)
详细信息
    作者简介:

    鲁华祥(1965-),男,博士,研究员,博士生导师,主要从事神经计算芯片、类脑神经计算技术和应用系统方面的研究

    通讯作者: 龚国良,E-mail:gongmianjie@semi.ac.cn
  • 中图分类号: TP18

A Particle Swarm Optimization Algorithm Based on Deep Deterministic Policy Gradient

  • 摘要: 在传统的粒子群优化算法(PSO)中,所有粒子都遵循最初设定的一些参数进行自我探索,这种方案容易导致过早成熟,且易被困于局部最优点。针对以上问题,该文提出了一种基于深度确定性策略梯度的粒子群优化算法(DDPGPSO),通过构造神经网络分别实现了动作函数和动作价值函数,且利用神经网络可以动态地生成算法运行所需要的参数,降低了人工配置算法的难度。实验表明DDPGPSO相比9种同类算法在收敛速度和寻优精度上均有较大的提升。
  • 图  1  F1迭代图

    图  2  F2迭代图

    图  3  F3迭代图

    图  4  F4迭代图

    图  5  F5迭代图

    图  6  F6迭代图

    图  7  F7迭代图

    图  8  F8迭代图

    表  1  动作网络结构

    层名称输出维度输入
    输入层6(状态向量)
    L0层24输入层
    L1层16L0层
    输出层3(动作向量)L1层
    下载: 导出CSV

    表  2  动作价值网络结构

    层名称输出维度输入
    输入层16(状态向量)
    输入层23(动作向量)
    拼接层9输入层1, 2
    L0层24拼接层
    L1层16L0层
    输出层1(动作价值)L1层
    下载: 导出CSV

    表  3  算法参数设置

    算法参数设置
    DDPGPSO无需参数设置,惯性因子搜索范围0.1~0.9;加速因子
    搜索范围0.5~2.5
    CPSOS惯性因子初值0.9,末值0.4;全局加速因子初值0.5,
    末值2.5;自身加速因子初值2.5,末值0.5;
    PSO惯性因子w = 0.5;加速因子c1 = 1, c2 = 2
    WOA定义螺旋形状的常数b = 1
    MFO定义螺旋形状的常数b = 1
    CUCKOO布谷鸟蛋发现概率pa = 0.25, 步长控制量α = 1
    BAT响度A=0.5, 脉冲发射率r=0.5, 最小频率Qmin= 0,
    最大频率Qmax= 2
    BFA探索步长1
    MVO虫洞存在率最大值WEPmax= 1和最小值WEPmin= 0.2,
    开发准确率p= 0.6
    CFA伸展度常数: r1 = 2,r2 =−1, 可见度常数:v1 =−1.5,v2 = 1.5
    下载: 导出CSV

    表  4  基准测试函数

    名称测试函数公式(目标均为最小化)初始范围维数
    F1Ackley$- 20\exp \left( - 0.2\sqrt {\dfrac{1}{D}\displaystyle\sum\limits_{i = 1}^D {x_i^2} } \right) - \exp \left(\dfrac{1}{D}\displaystyle\sum\limits_{i = 1}^D {\cos (2{\text π} {x_i})} \right) + 20 + \exp (1)$[−100, 100]100
    F2Griewank$\displaystyle\sum\limits_{i = 1}^D {\dfrac{ {x_i^2} }{ {4\;000} } - \prod\limits_{i = 1}^D {\cos \left(\dfrac{ { {x_i} } }{ {\sqrt i } }\right) + 1} }$[−600, 600]100
    F3Quartic$\displaystyle\sum\limits_{i = 1}^D {ix_i^4 + {\rm{random}}[0,1)} $[−1.28,1.28]100
    F4Rastrigrin$\displaystyle\sum\limits_{i = 1}^D {[x_i^2 - 10\cos (2{\text π} {x_i}) + 10]}$[−5.12,5.12]100
    F5RosenBrock$\displaystyle\sum\limits_{i = 1}^D {[100{{(x_i^2 - {x_{i + 1}})}^2} + {{({x_i} - 1)}^2}]} $[−30, 30]100
    F6Schwefel$\min (|{x_i}|,1 \leqslant i \leqslant D)$[−10, 10]100
    F7Sphere$\displaystyle\sum\limits_{i = 1}^D {x_i^2} $[−100, 100]100
    F8Step$\displaystyle\sum\limits_{i = 1}^D {{{({x_i} + 0.5)}^2}} $[−100, 100]100
    下载: 导出CSV

    表  5  实验结果对比

    函数数据名DDPGPSOBATBFACPSOSCUCKOOFAMFOMVOPSOWOA
    F1mean2.35×10−102.00×102.11×104.81×10−52.07×102.12×102.03×101.45×102.34×10−21.77×10
    best1.78×10−102.00×102.06×103.28×10−72.01×102.08×102.00×101.44×105.87×10−61.73×10
    std3.84×10−111.45×10−41.77×10−17.74×10−52.20×10−11.16×10−19.87×10−22.00×10−24.53×10−24.57×10−1
    F2mean5.55×10−191.52×1032.33×1031.24×10−66.49×1032.99×1038.09×1031.12×1021.21×10−14.89×10
    best0.00 1.52×1031.37×1031.97×10−102.36×1032.45×1032.44×1031.11×1022.67×10−74.73×10
    std2.42×10−182.13 6.70×1026.43×10−61.08×1032.66×1022.29×1022.11×10−12.79×10−11.35
    F3mean5.17×10−12.38×1032.42×1035.15×10−17.03×1032.95×1031.19×1041.53×105.29×10−15.78
    best6.79×10−41.80×1031.37×1031.23×10−31.78×1031.33×1031.82×1031.48×103.93×10−35.26
    std2.85×10−12.38×1024.17×1022.81×10−11.52×1034.76×1024.91×1022.87×10−12.75×10−13.36×10−1
    F4mean0.00 1.58×1031.75×1031.93×10−72.37×1031.85×1032.74×1039.72×1021.29×10−19.80×102
    best0.00 1.47×1031.42×1032.31×10−111.59×1031.52×1031.66×1039.67×1026.28×10−99.63×102
    std0.004.45×101.27×1026.00×10−71.96×1021.04×1025.47×102.054.55×10−12.35×10
    F5mean1.00×1024.54×1081.11×1099.99×105.17×1091.62×1097.17×1098.55×1061.32×1023.77×106
    best9.99×104.27×1084.38×1089.98×101.18×1091.14×1091.16×1098.50×1069.99×103.65×106
    std2.24×10−33.27×1075.28×1084.16×10−21.04×1092.25×1082.55×1082.55×1041.73×1027.84×104
    F6mean5.19×10−98.21 9.76 3.00×10−39.97 9.93 1.00×108.32 3.15×10−18.72
    best3.09×10−97.89 8.88 1.35×10−39.52 9.41 9.62 8.30 7.09×10−28.59
    std1.66×10−91.89×10−11.90×10−11.41×10−31.06×10−19.70×10−20.00 8.67×10−31.57×10−11.62×10−1
    F7mean2.66×10−181.51×1052.60×1051.95×10−67.08×1053.34×1059.02×1051.32×1041.84×10−14.56×103
    best1.28×10−181.49×1051.56×1051.66×10−82.74×1052.66×1052.70×1051.32×1046.14×10−84.45×103
    std1.16×10−181.54×1037.01×1042.66×10−61.26×1053.09×1042.39×1042.39×108.43×10−19.98×10
    F8mean2.44×101.74×1052.60×1052.33×107.13×1053.30×1058.99×1051.10×1044.91×104.53×103
    best2.36×101.73×1051.50×1052.16×102.66×1052.72×1052.65×1051.09×1042.34×104.29×103
    std4.36×10−21.53×1037.25×1044.57×10−11.08×1052.98×1043.27×1042.17×102.69×102.49×102
    下载: 导出CSV

    表  6  不同迭代次数下DDPGPSO排名

    迭代次数平均排名排名第一百分比/%
    1001.37575
    5001.62562.5
    10001.7562.5
    下载: 导出CSV
  • [1] KENNEDY J, EBERHART R. Particle swarm optimization[C]//International Conference on Neural Networks. Perth, Australia: IEEE, 1995: 1942-1948.
    [2] MIRJALILI S, LEWIS A. The whale optimization algorithm[J]. Advances in Engineering Software, 2016, 95: 51-67. doi:  10.1016/j.advengsoft.2016.01.008
    [3] MIRJALILI S, MIRJALILI S M, LEWIS A. Grey wolf optimizer[J]. Advances in Engineering Software, 2014, 69: 46-61. doi:  10.1016/j.advengsoft.2013.12.007
    [4] YANG X S. A new metaheuristic bat-inspired algorithm[J]. Computer Knowledge & Technology, 2010, 284: 65-74.
    [5] ZHAO Fu-qing, QIN Shuo, YANG Guo-qiang, et al. A factorial based particle swarm optimization with a population adaptation mechanism for the no-wait flow shop scheduling problem with the makespan objective[J]. Expert Systems with Application, 2019, 126: 41-53. doi:  10.1016/j.eswa.2019.01.084
    [6] SANG Jin-guo, CUI Huan-qiang. Energy saving schedule of mine drainage system based on particle swarm optimization[J]. Journal of Physics: Conference Series, 2019, DOI:  10.1088/1742-6596/1168/2/022001.
    [7] CUI Zhi-hua, ZHANG Jiang-jiang, WU Di, et al. Hybrid many-objective particle swarm optimization algorithm for green coal production problem[J]. Information Sciences, 2020, 518: 256-271. doi:  10.1016/j.ins.2020.01.018
    [8] WU Yu-qiang, WU Yong-gang, LIU Xing-long. Couple-based particle swarm optimization for short-term hydrothermal scheduling[J]. Applied Soft Computing, 2019, 74: 440-450. doi:  10.1016/j.asoc.2018.10.041
    [9] WANG Yu, LI Bin, THOMAS W, et al. Self-adaptive learning based particle swarm optimization[J]. Information Sciences, 2011, 181(20): 4515-4538. doi:  10.1016/j.ins.2010.07.013
    [10] SHI Y. A modified particle swarm optimizer[C]//1998 IEEE World Congress on Computational Intelligence. [S.l.]: IEEE, 1998: 69-73.
    [11] CLERC M, KENNEDY J. The particle swarm - explosion, stability, and convergence in a multidimensional complex space[J]. IEEE Transactions on Evolutionary Computation, 2002, 6(1): 58-73. doi:  10.1109/4235.985692
    [12] RATNAWEERA A, HALGAMUGE S K, WATSON H C. Self-organizing hierarchical particle swarm optimizer with time-varying acceleration coefficients[J]. IEEE Transactions on Evolutionary Computation, 2004, 8(3): 240-255. doi:  10.1109/TEVC.2004.826071
    [13] ZHAN Zhi-hui, ZHANG Jun, LI Yun, et al. Adaptive particle swarm optimization[J]. IEEE Transactions on Systems, Man, and Cybernetics, Part B: Cybernetics, 2009, 39(6): 1362-1381. doi:  10.1109/TSMCB.2009.2015956
    [14] XU Gui-ping, CUI Quan-long, SHI Xiao-hu, et al. Particle swarm optimization based on dimensional learning strategy[J]. Swarm and Evolutionary Computation, 2019, 45: 33-51. doi:  10.1016/j.swevo.2018.12.009
    [15] ANG K M, LIM W H, ISA N A M, et al. A constrained multi-swarm particle swarm optimization without velocity for constrained optimization problems[J]. Expert Systems with Applications, 2020, DOI:  10.1016/j.eswa.2019.112882.
    [16] ZHANG Xu-wei, LIU Hao, ZHANG Tong, et al. Terminal crossover and steering-based particle swarm optimization algorithm with disturbance[J]. Applied Soft Computing, 2019, DOI:  10.1016/j.asoc.2019.105841.
    [17] WANG Sheng-liang, LIU Gen-you, GAO Ming, et al. Heterogeneous comprehensive learning and dynamic multi-swarm particle swarm optimizer with two mutation operators[J]. Information Sciences, 2020, DOI:  10.1016/j.ins.2020.06.027.
    [18] LILLICRAP T P, HUNT J J, PRITZEL A, et al. Continuous control with deep reinforcement learning[J]. Computer Science, 2016, 8(6): A187.
    [19] SILVER D, LEVER G, HEESS N, et al. Deterministic policy gradient algorithms[C]//Proceedings of the International Conference on Machine Learning. [S.l.]: ACM, 2014: 387-395.
    [20] TIAN Dong-qiang, ZHAO Xiao-fei, SHI Zhong-zhi. Chaotic particle swarm optimization with sigmoid-based acceleration coefficients for numerical function optimization[J]. Swarm and Evolutionary Computation, 2019, 51: 100573. doi:  10.1016/j.swevo.2019.100573
    [21] 张强, 郭玉洁, 王颖, 等. 一种离散鲸鱼算法及其应用[J]. 电子科技大学学报, 2020, 49(4): 622-630. doi:  10.12178/1001-0548.2019116

    ZHANG Qiang, GUO Yu-jie, WANG Ying, et al. A discrete whale optimization algorithm and application[J]. Journal of the University of Electronic Science and Technology of China, 2020, 49(4): 622-630. doi:  10.12178/1001-0548.2019116
  • [1] 翟社平, 李航, 亢鑫年, 杨锐.  融合强化学习的实体关系联合抽取模型 . 电子科技大学学报, 2024, 53(2): 243-251. doi: 10.12178/1001-0548.2023107
    [2] 杨彦祥, 张翔引, 李波, 秦开宇.  基于群体智能算法的无人机蜂群拓扑构型方法 . 电子科技大学学报, 2023, 52(2): 203-208. doi: 10.12178/1001-0548.2022091
    [3] 高远翔, 罗龙, 孙罡.  基于强化学习的多阶段网络分组路由方法 . 电子科技大学学报, 2022, 51(2): 200-206. doi: 10.12178/1001-0548.2021260
    [4] 周宁, 张嵩霖, 张晨.  融合粗糙数据推理的多策略改进麻雀搜索算法 . 电子科技大学学报, 2022, 51(5): 743-753. doi: 10.12178/1001-0548.2021288
    [5] 李新民, 尹宝林, 魏李莉, 张晓强.  强化学习无人机通信系统中的信息年龄优化 . 电子科技大学学报, 2022, 51(2): 213-218. doi: 10.12178/1001-0548.2021128
    [6] 罗欣, 陈艳阳, 耿昊天, 许文波, 张民.  基于深度强化学习的文本实体关系抽取方法 . 电子科技大学学报, 2022, 51(1): 91-99. doi: 10.12178/1001-0548.2021162
    [7] 胡浪涛, 毕松姣, 刘全金, 吴建岚, 杨瑞.  基于深度强化学习的多小区NOMA能效优化功率分配算法 . 电子科技大学学报, 2022, 51(3): 384-391. doi: 10.12178/1001-0548.2021193
    [8] 郜东瑞, 周晖, 冯李逍, 张云霞, 彭茂琴, 张永清.  基于特征融合和粒子群优化算法的运动想象脑电信号识别方法 . 电子科技大学学报, 2021, 50(3): 467-475. doi: 10.12178/1001-0548.2020107
    [9] 叶进, 肖庆宇, 陈梓晗, 陈贵豪, 李陶深.  以用户QoE预测值为奖励的视频自适应比特率算法 . 电子科技大学学报, 2021, 50(2): 236-242. doi: 10.12178/1001-0548.2020325
    [10] 黄庆东, 石斌宇, 郭民鹏, 袁润芝, 陈晨.  基于Q-learning的分布式自适应拓扑稳定性算法 . 电子科技大学学报, 2020, 49(2): 262-268. doi: 10.12178/1001-0548.2019076
    [11] 张强, 郭玉洁, 王颖, 刘馨.  一种离散鲸鱼算法及其应用 . 电子科技大学学报, 2020, 49(4): 622-630. doi: 10.12178/1001-0548.2019116
    [12] 史豪斌, 徐梦.  基于强化学习的旋翼无人机智能追踪方法 . 电子科技大学学报, 2019, 48(4): 553-559. doi: 10.3969/j.issn.1001-0548.2019.04.012
    [13] 张新明, 王霞, 涂强, 康强.  趋优算子和Levy Flight混合的粒子群优化算法 . 电子科技大学学报, 2018, 47(3): 421-429. doi: 10.3969/j.issn.1001-0548.2018.03.016
    [14] 刘强, 马家辰, 谢玮, 马立勇.  混合粒子群优化算法和案例推理方法的多机器人学习 . 电子科技大学学报, 2014, 43(1): 137-143. doi: 10.3969/j.issn.1001-0548.2014.01.023
    [15] 敖永才, 师奕兵, 张伟, 李焱骏.  自适应惯性权重的改进粒子群算法 . 电子科技大学学报, 2014, 43(6): 874-880. doi: 10.3969/j.issn.1001-0548.2014.06.014
    [16] 王维博, 冯全源.  粒子群优化算法在天线方向图综合中的应用 . 电子科技大学学报, 2011, 40(2): 237-241. doi: 10.3969/j.issn.1001-0548.2011.02.016
    [17] 胡建, 李志蜀, 欧鹏, 罗思达.  粒子群优化算法中的分步式策略 . 电子科技大学学报, 2009, 38(3): 435-440. doi: 10.3969/j.issn.1001-0548.2009.03.028
    [18] 刁鸣, 高洪元, 马杰, 缪善林.  应用神经网络粒子群算法的多用户检测 . 电子科技大学学报, 2008, 37(2): 178-180,281.
    [19] 向中凡.  Q学习角色值法在机器人足球比赛中的应用 . 电子科技大学学报, 2007, 36(4): 809-812.
    [20] 任诚, 唐普英, 方峻.  拉伸技术粒子群优化算法的多用户检测器 . 电子科技大学学报, 2007, 36(5): 915-917.
  • 加载中
图(8) / 表(6)
计量
  • 文章访问数:  5660
  • HTML全文浏览量:  2240
  • PDF下载量:  117
  • 被引次数: 0
出版历程
  • 收稿日期:  2020-11-21
  • 修回日期:  2020-12-23
  • 网络出版日期:  2021-03-31
  • 刊出日期:  2021-03-22

基于深度确定性策略梯度的粒子群算法

doi: 10.12178/1001-0548.2020420
    基金项目:  国家自然科学基金(U19A2080, U1936106);北京市科技计划(Z181100001518006);高技术项目(31513070501, 1916312ZD00902201, XDA27040303)
    作者简介:

    鲁华祥(1965-),男,博士,研究员,博士生导师,主要从事神经计算芯片、类脑神经计算技术和应用系统方面的研究

    通讯作者: 龚国良,E-mail:gongmianjie@semi.ac.cn
  • 中图分类号: TP18

摘要: 在传统的粒子群优化算法(PSO)中,所有粒子都遵循最初设定的一些参数进行自我探索,这种方案容易导致过早成熟,且易被困于局部最优点。针对以上问题,该文提出了一种基于深度确定性策略梯度的粒子群优化算法(DDPGPSO),通过构造神经网络分别实现了动作函数和动作价值函数,且利用神经网络可以动态地生成算法运行所需要的参数,降低了人工配置算法的难度。实验表明DDPGPSO相比9种同类算法在收敛速度和寻优精度上均有较大的提升。

English Abstract

鲁华祥, 尹世远, 龚国良, 刘毅, 陈刚. 基于深度确定性策略梯度的粒子群算法[J]. 电子科技大学学报, 2021, 50(2): 199-206. doi: 10.12178/1001-0548.2020420
引用本文: 鲁华祥, 尹世远, 龚国良, 刘毅, 陈刚. 基于深度确定性策略梯度的粒子群算法[J]. 电子科技大学学报, 2021, 50(2): 199-206. doi: 10.12178/1001-0548.2020420
LU Hua-xiang, YIN Shi-yuan, GONG Guo-liang, LIU Yi, CHENG Gang. A Particle Swarm Optimization Algorithm Based on Deep Deterministic Policy Gradient[J]. Journal of University of Electronic Science and Technology of China, 2021, 50(2): 199-206. doi: 10.12178/1001-0548.2020420
Citation: LU Hua-xiang, YIN Shi-yuan, GONG Guo-liang, LIU Yi, CHENG Gang. A Particle Swarm Optimization Algorithm Based on Deep Deterministic Policy Gradient[J]. Journal of University of Electronic Science and Technology of China, 2021, 50(2): 199-206. doi: 10.12178/1001-0548.2020420
  • 群智能优化算法属于随机优化算法的一种,包括经典粒子群算法(particle swarm optimization, PSO)[1]、鲸鱼群算法(whale optimization algorithm, WOA)[2]、灰狼算法(gray wolf optimization algorithm, GWO)[3]、蝙蝠算法(BAT)[4]等,这些算法都是模拟大自然中某种生物的生活习性而创造的算法。

    PSO[1]是一种群智能优化算法,其原理是模仿鸟群捕食和聚集的行为,并采用计算机模拟的方式创造一种随机优化的算法。该算法自首次提出开始就受到广泛关注,其优势主要在于它简单的基本原理、较少的参数和快速的收敛速度。该算法已经广泛应用于工业生产[5]、矿山[6]、煤炭[7]、水电调度[8]等领域。

    但PSO算法也有一些不足。传统PSO算法可以很好地工作在低维问题上,但是在高维问题上经常表现很差。另外,PSO算法在求解复杂问题时,经常会被困在局部最优点中,过早地收敛[9]。研究者对PSO算法存在的问题进行了很多改进。文献[10]首次提出了惯性权重,文献[11]首次提出了收缩系数。这些方法都通过控制算法的一些运行参数较好地平衡了算法的探索能力和挖掘已有信息的能力。自组织层次化粒子群算法[12]通过采用一个随时间变化的参数,提升了算法的收敛能力。文献[13]提出了一种自适应粒子群优化算法,通过进化状态估计将种群状态划分为探索、开发、收敛和跳出4种状态,然后根据这4种状态自适应地调整惯性权重和加速度系数。文献[14]通过将粒子位置的各维度进行逐通道学习避免了PSO算法在优化过程中经常出现震荡的问题。文献[15]提出了无速度约束多群粒子群优化,通过加入约束处理技术,在优化可行域之前将总体搜索引向搜索空间的可行区域,使得PSO算法可以解决约束优化问题。文献[16]提出了基于末端弹性机制和交叉转向机制的粒子群算法,通过引入非线性惯性权重和弹性机制,更好地平衡了算法的利用与开发。文献[17]提出了一种具有变异算子的粒子群优化算法,通过将种群分为不同的亚群,引入非均匀突变算子,增加高斯变异操作,提高了算法的探索能力。

    这些改进方法具有一个共同的特点,即通过人工对算法的超参数进行设置,只有经过多次反复尝试才能得到一个相对较优的参数组。近年来,随着机器学习和强化学习的兴起,神经网络逐渐展现出强大的参数搜索能力。优化问题的目标是优化一个函数的值,而每步之间该值的差非常适合作为强化学习中的奖励基准来使用。这使得在群智能算法领域应用强化学习成为可能。

    但是,在传统的连续控制领域,动作空间十分巨大并且动作值均为连续的实数值。这使得强化学习智能体直接从像素级别信息进行学习变得十分困难。近些年Google DeepMind团队提出了一种新型的深度强化学习算法:深度确定性策略梯度算法(deep deterministic policy gradient, DDPG)[18],其在很多连续控制问题上表现突出,比如Atari电子游戏[18-19],但尚未有人将该算法与群体智能算法相结合来进行研究。

    本文提出了一种基于深度确定性策略梯度的粒子群优化算法,在原有的粒子群算法中引入神经网络来动态调节算法的收敛速度。通过提前训练,获得一个动作网络,然后应用动作网络求解优化问题。对改进的算法进行仿真验证,在多种测试函数上与其他优化函数进行对比,得出DDPGPSO有了更高的寻优速度和精度。

    • 本文首先介绍基本的粒子群算法,然后介绍DDPG的基本思想,最后介绍融合了DDPG的粒子群优化算法DDPGPSO。

    • 粒子群优化算法是一种群体智能的算法。这种算法源于对鸟群捕食和聚集行为的研究,通过设计一种无质量的粒子来模拟鸟群中的鸟,粒子仅具有两个属性:速度和位置,速度代表移动的快慢,位置代表移动的方向。每个粒子在搜索空间中单独的搜寻最优解,将其记为当前个体极值,并将个体极值与整个粒子群里的其他粒子共享,找到最优的个体极值作为整个粒子群的当前全局最优解,粒子群中的所有粒子根据自己找到的当前个体极值和整个粒子群共享的当前全局最优解来调整自己的速度和位置。其具体流程如下:

      假设种群中含有m个粒子,解空间的维度是n,每个粒子代表解空间中的一个点。粒子i包含一个n维的位置向量(x1,x2,···,xn)和速度向量(v1,v2,···,vn)。每个粒子通过学习它的最优历史位置和全局最优位置来更新速度和位置,更新公式如下:

      $${v_{ij}} = {v_{ij}} + {c_1}{r_{1j}}({x_{p{\rm{best}}ij}} - {x_{ij}}) + {c_2}{r_{2j}}({x_{g{\rm{best}}}} - {x_{ij}})$$ (1)
      $${x_{ij}} = {v_{ij}} + {x_{ij}}$$ (2)

      式中,i=1,2,···,mj=1,2,···,nmn分别是种群数量和解空间的维度;vijxij分别代表粒子i的第j维的速度和位置;xpbestij代表粒子i的历史最佳位置;xgbest代表种群内的历史最佳位置;c1c2是控制加速的参数;r1jr2j是两个均匀分布于[0,1]区间的随机数。最大速度参数vmaxj被用来将每个粒子的速度控制到一个合适的区间中。如果|vij|>vmaxj,则令vij=vijvmaxj/|vij|。为了平衡种群的探索和挖掘能力,文献[9]提出了速度惯性权重来控制速度,式(1)被修改成:

      $${v_{ij}} = \omega {v_{ij}} + {c_{\rm{1}}}{r_{{\rm{1}}j}}({x_{p{\rm{best}}ij}} - {x_{ij}}) + {c_2}{r_{2j}}({x_{g{\rm{best}} }} - {x_{ij}})$$ (3)

      式中,$\omega $一般设置为从0.4~0.9随时间线性递减。在搜索过程中,惯性参数$\omega $的这种变化确保算法在早期拥有强大的全局探索能力,在后期拥有强大的局部搜索能力。

    • 在标准的强化学习环境中,每一个智能体与环境进行交互,最终目标是最大化环境收益。这种互动过程被格式化地描述为马尔科夫决策过程(MDP),可以通过四元组(S, A, R, P)来描述这个过程。S是状态空间,A是动作空间,RS×AR是奖励函数,PS×A×S→[0,1]是转移概率。在这个环境下,一个智能体会去学习一个策略πSA来最大化在环境中的收益:

      $${R_0} = \sum\limits_{i = 0}^T {r{\rm{(}}{s_i},{a_i}{\rm{)}}} $$ (4)

      式中,T是交互结束时前进的步数;$r({s_i},{a_i})$是在环境si中执行ai所获得的收益。通常情况下环境中的长期收益会通过参数$\gamma $来缩减:

      $$R_0^\gamma = {\sum\limits_{i = 0}^T {{\gamma ^i}r({s_i},{a_i})} }\qquad \gamma \in (0,1)$$ (5)

      一般用动作价值函数代表在s环境中执行a动作的长期收益:

      $$Q({s_t},{a_t}) = {\rm{E}}[R_t^\gamma |s = {s_t},a = {a_t}] = {\rm{E}}\left[\sum\limits_{i = t}^T {{\gamma ^{i - t}}r({s_i},{a_i})} \right]$$ (6)

      通常使用贝尔曼方程来寻找这种最优的动作价值函数:

      $$Q*({s_t},{a_t}) = {\rm{E}}[r({s_t},{a_t}) + \gamma \mathop {\max }\limits_{a'_{t + 1}} Q*({s_{t + 1}},{a'_{t + 1}})]$$ (7)

      然而,这种方式只适合于那些动作和状态空间都是离散情况的场合。为了应用强化学习到动作空间和状态空间为连续情况的问题,DDPG设计了两个深度神经网络,分别是动作价值网络$Q({s_t},{a_t}|{\theta ^Q})$和动作网络$\mu ({s_t}|{\theta ^\mu })$,其中${\theta ^Q}$${\theta ^\mu }$为网络参数。动作网络$\mu ({s_t}|{\theta ^\mu })$就是一个对应状态空间和动作空间的映射,可以直接根据状态产生需要的动作。动作价值网络$Q({s_t},{a_t}|{\theta ^Q})$用于接近动作价值函数,并且可以为动作网络的训练提供梯度。

      对这种动作价值网络的训练是要最小化损失函数:

      $$L({\theta ^Q}) = {(r({s_t},{a_t}) + \gamma Q'({s_{t + 1}},{a_{t + 1}}|{\theta ^{Q'}}) - Q({s_t},{a_t}|{\theta ^Q}))^2}$$ (8)

      式中,$Q'$是目标价值网络,从$Q$网络同步权重。而动作网络参数的更新需要策略梯度算法,其梯度更新方向为:

      $$\begin{split} &\qquad\; {\nabla _{{\theta ^\mu }}}Q(s,a|{\theta ^Q}){|_{s = {s_t},a = \mu ({s_t},v)}} = \\ &{\nabla _a}Q(s,a|{\theta ^Q}){|_{s = {s_t},a = \mu ({s_t},v)}}{\nabla _{{\theta ^\mu }}}\mu (s|{\theta ^\mu }){|_{s = {s_t}}} \end{split} $$ (9)
    • 标准的粒子群优化算法在运行过程中,参数都是确定的,如式(3)所示。也有一些文献采用提前设置参数变化形式的方式来自动修改参数[20],但其实质仍是在开始运行时就已经确定,无法根据后续情况进行变化,不能达到最佳的算法效果。为了增加算法的自动调整能力,提高算法的寻优和收敛能力,本文引入了动态自适应参数调整算法,根据当前运行的情况来生成下次迭代所需的参数。改进后的速度更新公式为:

      $${v_{ij}} = {\omega _t}{v_{ij}} + {c_{\rm{1}}}_t{r_{1t}}({x_{p{\rm{best}}ij}} - {x_{ij}}) + {c_2}_t{r_{2{t}}}({x_{g{\rm{best}} }} - {x_{ij}})$$ (10)
      $${\omega _t} = {G_\omega }({s_{t - 1}})$$ (11)
      $${r_{1t}} = {G_{r1}}({s_{t - 1}})$$ (12)
      $${r_{2t}} = {G_{r2}}({s_{t - 1}})$$ (13)

      式中,t为当前的迭代次数;G为生成函数,本文使用神经网络作为生成函数,这样就可以在迭代过程中动态生成运行参数。

    • 随着PSO各种改进方式越来越复杂,越来越多的参数需要进行设定,但人工设定各种参数不仅麻烦,而且也不一定能获得最佳性能。加入了参数生成函数后,所需调整的参数量更加巨大,迫切地需要一种自动化的方式来自动配置算法。但是,由于这种优化效果本质上也是一个优化的问题,是不可求导的,也没有合适的损失函数可供使用,传统的深度学习算法无法应用到这种优化问题之中。因此,本文利用DDPG算法,创建一个智能体,通过跟算法的交互自动习得参数。

      该算法所使用的状态空间为六维,前5个维度代表群智能过去的平均适应性函数的变化量,最后一个维度代表当前的迭代次数,其计算公式为:

      $$\begin{split} &{s_{it}} = {\rm{fitmea}}{{\rm{n}}_{t + 4 - i}} - {\rm{fitmea}}{{\rm{n}}_{t + 3 - i}}\quad0 \leqslant i \leqslant 4 \\ &\qquad\qquad\;\;\;\; {s_{5t}} = t/{T_{\max }} \end{split} $$ (14)

      式中,fitmeant代表粒子群在第t轮循环时所有粒子解的平均值;Tmax代表迭代的最大次数;Sit表示第t轮循环、第i维的状态向量。

      算法的动作空间为三维,动作值介于−1~1之间,通过线性变换将动作映射到合理的区间。三维动作分别对应式(3)中的 wc1c2,其中c1c2变换到0.5~2.5区间,w变换到0.1~0.9区间。线性变换公式为:

      $$\begin{split} &w = a_0/2.5 + 0.5 \\ &\;\;\;{c_1} = a_1 + 1.5 \\ &\;\;\;{c_2} = a_2 + 1.5 \end{split} $$ (15)

      式中,a0a1a2分别为动作的3个维度。算法的奖励值设置如下:当PSO在当前环境最佳值发生变化,则奖励为1,否则奖励为−1:

      $$ {R_i} = 1\;\;({\text{全局历史最优值发生变化}}) $$ (16)
      $$ {R_i} = - 1\;\;\;({\text{全局历史最优值未发生变化}}) $$ (17)

      这样设置是为了让网络寻找参数,使原有算法更快地对问题进行优化,提高算法的寻优速度。

    • 1)初始化训练所需参数:训练最大次数TrainMax,当前训练次数episode =1;

      2)随机初始化动作网络$\mu (s|{\theta ^\mu })$和动作价值网络$Q(s,a|{\theta ^Q})$的参数${\theta ^Q}$${\theta ^\mu }$,具体结构如表1表2所示;

      3)初始化目标网络$Q'$$\mu '$,其权重值从Q$\mu $复制过来;

      4)初始化回放缓存R

      5)初始化环境(粒子种群)Xi(i=1,2,···,Q),计算每个个体Xi的适应度值F,得到初始最优位置X*,当前迭代次数t=0,最大迭代次数Tmax

      6) For episode=1, TrainMax do

      7)初始化一个随机过程来对动作进行探索;

      8)接收环境的初始化观测s1

      9) for t=1, Tmax do

      10)根据当前的策略和探索噪声选择动作:

      $${a_t} = \mu ({s_t}|{\theta ^\mu }) + { N_t}$$

      11)在环境中执行动作at并观察奖励回报rt和新的状态st+1

      12)将(st, at, rt, st+1)保存到缓存R中;

      13)从R中随机采样一个最小批次的N次状态转移,设置${y_i} = {r_i} + \gamma Q'({s_{i + 1}},\mu '({s_{i + 1}}|{\theta ^{\mu '}})|{\theta ^{Q'}})$

      14)通过最小化损失函数$L = \dfrac{1}{N} \displaystyle \sum\limits_{i = 0}^N {{{({y_i} - Q({s_i},{a_i}|{\theta ^Q}))}^2}} $更新动作价值网络;

      15)通过采样的动作策略梯度来更新动作网络:

      $${\nabla _{{\theta ^\mu }}}J \approx \frac{1}{N}\sum\limits_{i = 0}^N {{\nabla _a}Q(s,a|{\theta ^Q}){|_{s = {s_i},a = \mu ({s_i})}}{\nabla _{{\theta ^\mu }}}\mu (s|{\theta ^\mu }){|_{s = {s_i}}}} $$

      16)更新目标网络函数的权值:

      $$\begin{aligned} & {\theta ^{Q'}} \leftarrow \tau {\theta ^Q} + (1 - \tau ){\theta ^{Q'}} \\ & {\theta ^{\mu '}} \leftarrow \tau {\theta ^\mu } + (1 - \tau ){\theta ^{\mu '}} \end{aligned} $$

      17) end for

      18) end for

      19)保存训练好的动作网络权重,用于之后的优化问题。

      表 1  动作网络结构

      层名称输出维度输入
      输入层6(状态向量)
      L0层24输入层
      L1层16L0层
      输出层3(动作向量)L1层

      表 2  动作价值网络结构

      层名称输出维度输入
      输入层16(状态向量)
      输入层23(动作向量)
      拼接层9输入层1, 2
      L0层24拼接层
      L1层16L0层
      输出层1(动作价值)L1层
    • 1)初始化粒子种群xi(i=1,2,···,Q),计算每个个体xi的适应度值,得到初始的全局最优位置x*,最优解F*,当前迭代次数t=0,最大迭代次数Tmax

      2) while t < Tmax

      3)计算当前状态,更新全局最优值;

      4)根据动作网络$\mu (s|{\theta ^\mu })$和当前状态,获取当前动作,由式(15)转化为群探索参数;

      5) for i = 1∶Q

      6)应用式(3)更新Xi的速度vi

      7)应用式(2)更新Xi的位置xi

      8) end for

      9) end while

    • 本文将DDPGPSO算法同飞蛾扑火算法(moth flame optimization, MFO)、布谷鸟算法(CUCKOO)、蝙蝠算法(BAT)、乌贼算法(cuttlefish algorithm, CFA)、多元宇宙算法(multi verse optimizer, MVO)、鲸鱼算法(WOA)、细菌觅食算法(bacterial foraging optimization, BFA)8种常用的优化算法,以及一种粒子群算法的变种混沌粒子群算法(a chaotic pso algorithm based on sequential algorithm, CPSOS)[20]进行实验对比,参数设置如表3所示。由于本文主要验证DDPGPSO的参数生成能力,为了保持一致,CPSOS的一些复杂操作不予考虑。选用了8个常用的基准测试函数[21](F1~F8)如表4所示,最优值均为0。对于所有的算法和测试函数,算法的参数设置如下:最大迭代次数设为100,种群数量设为40,重复计算10次,采用平均值(mean)、标准差(std)和迭代中的最优值(best)来评价算法的性能,F1~F8的迭代图分别如图1图8所示。在这些测试中,所有的优化算法的初始值均随机生成,在解空间中符合均匀分布。由于画图中采用对数坐标作为纵坐标,为了防止在算法搜索到最优值0时产生无意义数据,所有绘图的y数据均增加了一个极小值。图2图4中的DDPGPSO由于已经搜索到最小值0,对数图中会产生无穷小,因此删去部分末尾数据。

      表 3  算法参数设置

      算法参数设置
      DDPGPSO无需参数设置,惯性因子搜索范围0.1~0.9;加速因子
      搜索范围0.5~2.5
      CPSOS惯性因子初值0.9,末值0.4;全局加速因子初值0.5,
      末值2.5;自身加速因子初值2.5,末值0.5;
      PSO惯性因子w = 0.5;加速因子c1 = 1, c2 = 2
      WOA定义螺旋形状的常数b = 1
      MFO定义螺旋形状的常数b = 1
      CUCKOO布谷鸟蛋发现概率pa = 0.25, 步长控制量α = 1
      BAT响度A=0.5, 脉冲发射率r=0.5, 最小频率Qmin= 0,
      最大频率Qmax= 2
      BFA探索步长1
      MVO虫洞存在率最大值WEPmax= 1和最小值WEPmin= 0.2,
      开发准确率p= 0.6
      CFA伸展度常数: r1 = 2,r2 =−1, 可见度常数:v1 =−1.5,v2 = 1.5

      表 4  基准测试函数

      名称测试函数公式(目标均为最小化)初始范围维数
      F1Ackley$- 20\exp \left( - 0.2\sqrt {\dfrac{1}{D}\displaystyle\sum\limits_{i = 1}^D {x_i^2} } \right) - \exp \left(\dfrac{1}{D}\displaystyle\sum\limits_{i = 1}^D {\cos (2{\text π} {x_i})} \right) + 20 + \exp (1)$[−100, 100]100
      F2Griewank$\displaystyle\sum\limits_{i = 1}^D {\dfrac{ {x_i^2} }{ {4\;000} } - \prod\limits_{i = 1}^D {\cos \left(\dfrac{ { {x_i} } }{ {\sqrt i } }\right) + 1} }$[−600, 600]100
      F3Quartic$\displaystyle\sum\limits_{i = 1}^D {ix_i^4 + {\rm{random}}[0,1)} $[−1.28,1.28]100
      F4Rastrigrin$\displaystyle\sum\limits_{i = 1}^D {[x_i^2 - 10\cos (2{\text π} {x_i}) + 10]}$[−5.12,5.12]100
      F5RosenBrock$\displaystyle\sum\limits_{i = 1}^D {[100{{(x_i^2 - {x_{i + 1}})}^2} + {{({x_i} - 1)}^2}]} $[−30, 30]100
      F6Schwefel$\min (|{x_i}|,1 \leqslant i \leqslant D)$[−10, 10]100
      F7Sphere$\displaystyle\sum\limits_{i = 1}^D {x_i^2} $[−100, 100]100
      F8Step$\displaystyle\sum\limits_{i = 1}^D {{{({x_i} + 0.5)}^2}} $[−100, 100]100

      图  1  F1迭代图

      图  2  F2迭代图

      图  3  F3迭代图

      图  4  F4迭代图

      图  5  F5迭代图

      图  6  F6迭代图

      图  7  F7迭代图

      图  8  F8迭代图

      表5为8种算法在8个测试函数的实验结果对比,可以看出,DDPGPSO在F2、F4函数上直接搜索到了最优值,而在其他函数上虽然没有搜索到最优值,但是与其他算法相比,在寻优精度上也有很大提高,另外,在F5和F8中,虽然算法不是第一名,但是所搜索出的最优值与第一名相比较,差距也在10%以内,说明DDPGPSO在各种情况下的性能都处于较好水平。另外可以看到,CPSOS在多种情况下也优于标准粒子群网络,说明采用人工方式对参数进行一些设定也可以优化算法性能。而DDPGPSO在大多数情况下优于CPSOS也证明了机器学习在参数生成方面相较于人工方式的优势。

      图1图8可以看出,DDPGPSO算法相较其他算法在收敛速度上提升明显,另外在多个测试函数中也取得了更好的测试结果。这种结果与强化学习中设定的更快收敛的奖励是一致的。这说明通过强化学习对PSO进行训练可以显著改善算法的各项性能,同时在多个函数测试项目上也取得了更好的收敛精度。

      表6为DDPGPSO在不同迭代次数情况下的结果。可以看出,在迭代次数增加到500、1000后,DDPGPSO仍是几种对比算法中最有竞争力的算法,在平均排名和排名第一的百分比两项参数上都有很大优势,也说明了该算法的优越性和强化学习应用于群智能算法的潜力。

      表 5  实验结果对比

      函数数据名DDPGPSOBATBFACPSOSCUCKOOFAMFOMVOPSOWOA
      F1mean2.35×10−102.00×102.11×104.81×10−52.07×102.12×102.03×101.45×102.34×10−21.77×10
      best1.78×10−102.00×102.06×103.28×10−72.01×102.08×102.00×101.44×105.87×10−61.73×10
      std3.84×10−111.45×10−41.77×10−17.74×10−52.20×10−11.16×10−19.87×10−22.00×10−24.53×10−24.57×10−1
      F2mean5.55×10−191.52×1032.33×1031.24×10−66.49×1032.99×1038.09×1031.12×1021.21×10−14.89×10
      best0.00 1.52×1031.37×1031.97×10−102.36×1032.45×1032.44×1031.11×1022.67×10−74.73×10
      std2.42×10−182.13 6.70×1026.43×10−61.08×1032.66×1022.29×1022.11×10−12.79×10−11.35
      F3mean5.17×10−12.38×1032.42×1035.15×10−17.03×1032.95×1031.19×1041.53×105.29×10−15.78
      best6.79×10−41.80×1031.37×1031.23×10−31.78×1031.33×1031.82×1031.48×103.93×10−35.26
      std2.85×10−12.38×1024.17×1022.81×10−11.52×1034.76×1024.91×1022.87×10−12.75×10−13.36×10−1
      F4mean0.00 1.58×1031.75×1031.93×10−72.37×1031.85×1032.74×1039.72×1021.29×10−19.80×102
      best0.00 1.47×1031.42×1032.31×10−111.59×1031.52×1031.66×1039.67×1026.28×10−99.63×102
      std0.004.45×101.27×1026.00×10−71.96×1021.04×1025.47×102.054.55×10−12.35×10
      F5mean1.00×1024.54×1081.11×1099.99×105.17×1091.62×1097.17×1098.55×1061.32×1023.77×106
      best9.99×104.27×1084.38×1089.98×101.18×1091.14×1091.16×1098.50×1069.99×103.65×106
      std2.24×10−33.27×1075.28×1084.16×10−21.04×1092.25×1082.55×1082.55×1041.73×1027.84×104
      F6mean5.19×10−98.21 9.76 3.00×10−39.97 9.93 1.00×108.32 3.15×10−18.72
      best3.09×10−97.89 8.88 1.35×10−39.52 9.41 9.62 8.30 7.09×10−28.59
      std1.66×10−91.89×10−11.90×10−11.41×10−31.06×10−19.70×10−20.00 8.67×10−31.57×10−11.62×10−1
      F7mean2.66×10−181.51×1052.60×1051.95×10−67.08×1053.34×1059.02×1051.32×1041.84×10−14.56×103
      best1.28×10−181.49×1051.56×1051.66×10−82.74×1052.66×1052.70×1051.32×1046.14×10−84.45×103
      std1.16×10−181.54×1037.01×1042.66×10−61.26×1053.09×1042.39×1042.39×108.43×10−19.98×10
      F8mean2.44×101.74×1052.60×1052.33×107.13×1053.30×1058.99×1051.10×1044.91×104.53×103
      best2.36×101.73×1051.50×1052.16×102.66×1052.72×1052.65×1051.09×1042.34×104.29×103
      std4.36×10−21.53×1037.25×1044.57×10−11.08×1052.98×1043.27×1042.17×102.69×102.49×102

      表 6  不同迭代次数下DDPGPSO排名

      迭代次数平均排名排名第一百分比/%
      1001.37575
      5001.62562.5
      10001.7562.5

      综上所述,基于深度确定性策略梯度算法的粒子群优化算法(DDPGPSO)相较于其他同类别算法具有更高的寻优精度,更快的收敛速度,能够有效解决高维度的复杂数值优化问题。基于强化学习的群优化算法相较于手工设定参数的群优化算法拥有更好的寻优能力与探索能力。

    • 粒子群优化算法是模拟鸟群和鱼群的觅食和聚集行为而提出的一种群智能优化算法。本文提出了一种基于深度确定性策略梯度的粒子群算法(DDPGPSO),利用强化学习的手段来自动控制参数的变化,提高了原有PSO算法的收敛精度和收敛速度。通过测试算法在基准测试函数上的效果,验证了该算法的有效性和可行性,为以后强化学习与群智能算法的结合提供了一种方案。结果表明,同其他 9 种优化算法相比,DDPGPSO算法求解质量取得了很好的效果。今后的研究工作一方面会通过更多的实验来验证并改进算法的性能,另一方面将探索DDPG与其他算法结合是否能产生更好的效果。

参考文献 (21)

目录

    /

    返回文章
    返回