需要金币:800 个金币 | 资料包括:完整论文 | ||
转换比率:金额 X 10=金币数量, 例100元=1000金币 | 论文字数:14页 | ||
折扣与优惠:团购最低可5折优惠 - 了解详情 | 论文格式:Word格式(*.doc) |
摘要:共轭梯度法因其算法简单,存储需求小,非常适合求解大规模优化问题。本文基于现有的研究结果,提出了一种新的共轭梯度法。该算法具有充分下降性,并在强Wolfe线性搜索下,证明了算法的全局收敛性。 关键词:无约束最优化;共轭梯度法;充分下降性;线性搜索;全局收敛性
ABSTRACT:Conjugate gradient method is suitable for solving large-scale optimization problems since it is simple algorithm and needs small storage capacity. Based on the existing research, we present a new conjugate gradient method. The presented method has sufficiently descent property, and we show the global convergence of the method with strong Wolfe line search. Keywords:unconstrained optimization; conjugate gradient method; sufficiently descent property; line search; global convergence
本文主要对无约束优化问题的算法进行研究,给出了修正的,即构造了新的共轭下降方向,从而得到一类新的修正的共轭梯度算法,并证明了该算法的全局收敛性。 共轭梯度算法是求解无约束优化问题数值效果最好的方法,值得进行深入的研究,但由于时间和本人水平有限,本文只提出了修正的算法,但没有给出具体的数值试验,这是进一步要做的工作。
由于是数学论文,简介里有很多公式复制不出来。Wrod里是有公式的请放心。
|