主题
Search

差分进化


差分进化是一种随机并行直接搜索进化策略 优化方法,它相当快速且相当稳健。差分进化在 Wolfram 语言 中实现为NMinimize[f, vars,Method -> "DifferentialEvolution"] 和NMaximize[f, vars,Method -> "DifferentialEvolution"].

差分进化能够处理不可微、非线性和多模态目标函数。它已被用于训练具有实数和约束整数权重的神经网络。

在一个 n-维搜索空间内的潜在解种群中,固定数量的向量被随机初始化,然后随时间演化以探索搜索空间并定位目标函数的最小值。

在每次迭代(称为一代)中,新向量通过随机选择自当前种群的向量组合(变异)生成。然后,输出向量与预定的目标向量混合。此操作称为重组,并产生试验向量。最后,当且仅当试验向量导致目标函数值减小时,它才会被下一代接受。最后一个操作称为选择。


另请参阅

进化策略, 遗传算法, 最大化, 最小化, 优化, 优化理论

此条目的部分内容由 Vassilis Plagianakos 贡献

使用 Wolfram|Alpha 探索

参考文献

Ilonen, J.; Kamarainen, J. K.; and Lampinen, J. "前馈神经网络的差分进化训练算法。" Neurol. Proc. Lett. 17, 93-105, 2003.Plagianakos, V. P. and Vrahatis, M. N. "硬件友好型神经网络的并行进化训练算法。" Natural Comp. 1, 307-322, 2002.Price, K. and Storn, R. "差分进化。" Dr. Dobb's J., Issue 264, 18-24 and 78, Apr. 1997.Storn, R. "基于约束自适应和差分进化的系统设计。" IEEE Trans. Evol. Comput. 3, 22-34, 1999.Storn, R. and Price, K. "差分进化:一种用于连续空间全局优化的简单高效自适应方案。" J. Global Optimization 11, 341-359, 1997.

在 Wolfram|Alpha 中被引用

差分进化

请按如下方式引用

Plagianakos, VassilisWeisstein, Eric W. "差分进化。" 来自 MathWorld——Wolfram Web 资源。 https://mathworld.net.cn/DifferentialEvolution.html

主题分类