在历史上,许多解决最佳化问题的方法都藉助于熟悉的“经典分析技术”,即目标函式的泰勒级数展开。实际上,我们可以根据所用的展开项数来分类数值最佳化的方法。採用一、二阶导数的二阶泰勒多项式构建 f 的局部二次逼近。牛顿方法是一个二阶方法。採用一阶导数的一阶泰勒多项式构建 f 的局部线性逼近的最速下降方法是一个一阶方法。在这种分类中,“零阶方法”不需要求导信息和构造 f 的逼近。这些在工程最佳化界被称为零阶的方法就是直接搜寻法。直接搜寻法完全依赖于目标函式的值,但这并不能将直接搜寻法同其他最佳化方法完全区分。另外无约束最佳化的直接搜寻法仅仅依赖于通过可数集的函式值的相关阶的目标函式。直接搜寻法可用新的叠代来减少目标。
一旦初始单纯形构造好, Spendley et al 单纯形算法的单个移动是镜像的。这个移动首先在单纯形中确定“最差”顶点(例如:最小期望目标值的),然后通过向对面映射最差单纯形。如果映射后的点仍然是最差的,则选择“次差”顶点继续这个过程。(一个图 1 的快速回顾应该确保镜像点是否不比下一个最差点好,否则如果“最差”顶点又一次被选择镜像,就会被简单的反射回原来的地方,开始了一个循环)。最终的目标是取代“最好”顶点(比如,有最期望目标值的)或者确定出最优顶点是一个最优解的候选。直到那时,算法一直在通过相对面的中心翻转顶点来移动单纯形(而不是最好顶点)。
搜寻方向集适应法
最后一个经典方法的家族包括 Rosenbrock 和 Powell 的方法,称作搜寻方向集适应法(Methods with adaptive sets of search directions)。这些算法试图利用在搜寻过程中获得的函式曲率的信息构造方向来加速搜寻。