您好,欢迎来到聚文网。 登录 免费注册
目标罚函数算法

目标罚函数算法

  • 字数: 317千字
  • 装帧: 平装
  • 出版社: 科学出版社
  • 作者: 孟志青 等 著
  • 出版日期: 2016-12-01
  • 商品条码: 9787030510655
  • 版次: 1
  • 开本: 16开
  • 页数: 251
  • 出版年份: 2016
定价:¥126 销售价:登录后查看价格  ¥{{selectedSku?.salePrice}} 
库存: {{selectedSku?.stock}} 库存充足
{{item.title}}:
{{its.name}}
精选
内容简介
罚函数算法是求解约束优化的重要方法,在工程设计、经济管理、交通运输等领域里有着广发应用。本书将介绍求解约束优化问题的几类罚函数算法,单目标规划的低次罚函数光滑化算法、一般目标罚函数算法、准确目标罚函数算法、内点目标罚函数算法、增广拉格朗日目标罚函数、M目标罚函数算法等,多目标规划目标罚函数算法,双层规划目标罚函数算法,互补约束目标罚函数算法等。以上这些算法对于求解约束优化问题具有重要的作用。
目录
Preface
Chapter 1 Lower—Order Penalty Function Algorithm
1.1 Optimal Condition Based on Lower—Order Penalty Function
1.2 Smoothing Lower—Order Penalty Function Algorithm
1.3 Second—Order Smoothing Penalty Function Algorithm
1.4 Smoothing Square—Root Penalty Function Algorithm
Chapter 2 Objective Penalty Function Algorithm
2.1 General Objective Penalty Function Algorithm
2.2 Exactness Objective Penalty Function Algorithm
2.3 First—Order Smoothing Objective Penalty Function Algorithm
2.4 Second—Order Smoothing Objective Penalty Function Algorithm
Chapter 3 Other Objective Penalty Function Algorithms
3.1 Barrier Objective Penalty Function Algorithm
3.2 Barrier Objective Penalty Function Algorithm Ⅱ
3.3 M—objective Penalty Function Algorithm
3.4 Lagrange Objective Penalty Function Algorithm
3.5 Objective Penalty Function Algorithm of Zero—One Problems
Chapter 4 Objective Penalty Functions Algorithm for MOP, MPCC and BP
4.1 Objective Penalty Functions Algorithm Ⅰ for MOP
4.2 Objective Penalty Functions Algorithm Ⅱ for MOP
4.3 Objective Penalty Functions Algorithm for MPCC
4.4 Objective Penalty Functions Algorithm Ⅰ for BP
4.5 Objective Penalty Functions Algorithm Ⅱ for BP
4.6 Objective Penalty Functions Algorithm Ⅲ for BP
References
摘要
    Chapter 1
    Lower-Order Penalty Function Algorithm
    1.1 Optimal Condition Based on Lower-Order Penalty Function
    In this section, by assuming a non-Lipschitz penalty function is exact, new conditions for the existence of Lagrange multipliers are established for a continuously differentiable optimization problem with both inequality and equality constrains (Yang et al., 2007). This is done by virtue of a first-order necessary optimality condition of
    the penalty problem, which is obtained by estimating Dini upper directional derivatives of the penalty function in terms of Taylor expansions, and a Farkas lemma. Relations among the obtained results and some well-known constraint qualifications are discussed.
    continuously differentiable functions and Consider the following optimization problem with both inequality and equality constrains and the corresponding lp penalty problem
    where ρ >0 is the penalty parameter and F(x) the lp penalty function, and when
    p = 0, we will take the convention 00 = 0. Let
    be the feasible set. The lp penalty function F(x) is said to be exact if there is a finite value of ρ such that any local minimum of (P) is a local one of (Pρ). The earliest work on the l1 exact penalty function for convex programming was by Zangwill
    (1967). For the exactness of F(x), we have
    Theorem 1.1.1 Let 0 < p 1. Penalty function F(x) is exact if and only if the following generalized calmness-type condition holds
    (1.1.1)
    where the perturbation function defined to be the optimal value of the optimization problem
    When p = 1, Theorem 1.1.1 is established (Burke, 1991; Clarke, 1983), (1.1.1) is known as the Clarke calmness condition and F(x) the l1 penalty function, which is locally Lipschitz. The l1 penalty function has played a key role in mathematical programming.
    One important application of the calmness condition is that it, together with a calculus rule of an appropriate subdifferential, is sufficient to the existence of Lagrange multipliers for (P) (Clarke, 1983; Burke, 1991), and the references therein.
    When 0 < p < 1, Theorem 1.1.1 is established (Rubinov et al., 2003) and F(x) is referred to as a non-Lipschitz penalty function since it may not be locally Lipschitz at the point either gi(x) = 0 or hj(x) = 0. Other types of non-Lipschitz penalty functions have been employed in the study of mathematical programs with equilibrium constraints and error bounds (Luo et al., 1996; Pang, 1997). Recently an augmented Lagrangian function with a level bounded augmenting function is introduced (Huang et al., 2003) which extends the work of Rockafellar and Wets(1998) with a convex augmenting function and provides a unified scheme for duality and penalization. In particular, this scheme includes penalty functions in Luo et al. (1996), Pang (1997) and Rubinov and Yang (2003) as special cases.
    When p = 0, F(x) is not continuous as it has jumps on the boundary of X0. Condition (1.1.1) is equivalent to that lim inf u→0 β(u) is bounded as from below. Under the condition that f is lower semicontinuous, it is easy to say that F(x) is an exact penalty function, but simple examples can be given to show that condition (1.1.1) may not hold. Thus, when p = 0, the equivalence in Theorem 1.1.1 is in general not true. However, under the assumptions that f and gi(i ∈ I) are lower semicontinuous, hj(j ∈ J) are continuous, the set-valued mapping is upper semicontinuous at 0, and X0 is compact, the perturbation function β is lower semi-continuous at u = 0, see Rubinov et al. (2002). Thus, under these conditions, Theorem 1.1.1 trivially holds.
    One advantage of the non-Lipschitz penalty function is that it in general requires
    weaker conditions than those for l1 penalty function for the exact penalty representation
    (Huang and Yang, 2003; Luo et al., 1996). For example, consider a simple problem
    The l1 penalty function for this problem is not exact, but the l0.5 penalty function is exact. One type of non-Lipschitz penalty functions is also shown to be effective, together with some non-gradient based optimization method, in solving a class of concave programming problems (Rubinov and Huang, 2003). On the other hand, under the linear independence constraint qualification, first-order and second-order optimality conditions of (Pρ) and their convergence to that of the original optimization problem (P) were obtained in Rubinov et al. (2003).
    In this section, under the assumption that F(x) with 0 p 1 is an exact penalty function, we establish the existence of Lagrange multipliers for (P) without employing a subdifferential rule. This is done by virtue of necessary optimality conditions of (Pρ) and a Farkas lemma. In order to derive necessary optimality conditions of problem (Pρ) which meet our need, we estimate Dini lower and upper directional derivatives of the non-Lipschitzian penalty terms in F(x) as per Taylor ex

蜀ICP备2024047804号

Copyright 版权所有 © jvwen.com 聚文网