在 双共轭梯度方法 中,残差向量 可以被视为 和关于 的 次多项式的乘积,即:
(1)
|
这个相同的多项式满足
(2)
|
因此
(3)
| |||
(4)
| |||
(5)
|
这表明,如果 将 缩小为一个较小的向量 ,那么将这个“收缩”算子应用两次并计算 可能是有利的。迭代系数仍然可以从这些向量中恢复(如上所示),并且事实证明很容易找到 的相应近似值。这种方法是共轭梯度平方(CGS)方法(Sonneveld 1989)。
通常人们观察到 CGS 的收敛速度大约是 双共轭梯度方法 的两倍,这与同一个“收缩”算子应用两次的观察结果相符。然而,没有理由认为收缩算子,即使它真的减少了初始残差 ,也应该减少一次减少后的向量 。CGS 经常出现高度不规则的收敛行为就证明了这一点。应该意识到,对当前解的局部校正可能非常大,以至于会发生抵消效应。这可能导致解的精度不如更新后的残差所暗示的那么高(van der Vorst 1992)。如果初始猜测接近解,则该方法倾向于发散。
CGS 每次迭代所需的操作次数与 双共轭梯度方法 大致相同,但不涉及与 的计算。因此,在与 的计算不切实际的情况下,CGS 可能很有吸引力。