凸分析與優(yōu)化

出版時間:2006-2  出版社:清華大學(xué)出版社  作者:伯特塞卡斯  頁數(shù):534  
Tag標(biāo)簽:無  

前言

  本書針對最優(yōu)化問題介紹凸分析方法。第1章介紹凸集、凸函數(shù)、上境圖、凸包、仿射包、相對內(nèi)點、回收錐等凸分析的基本概念及其相關(guān)性質(zhì);第2章討論凸性在最優(yōu)化問題中的基本作用,介紹最優(yōu)解集的存在性定理、投影定理、凸集分離定理、極小公共點與極大交叉點對偶問題以及一般性的極小極大定理和鞍點定理;第3章討論凸集為多面體的情況,介紹線性Farkas引理、凸多面體的Minkowski Weyl表示定理、線性規(guī)劃的基本定理、凸多面體的極小極大定理以及非線性Farkas引理;第4章介紹方向?qū)?shù)、次梯度、次微分、切錐、法錐等基本概念及其相關(guān)性質(zhì),給出Danskin定理和抽象可行集描述的約束優(yōu)化問題最優(yōu)性條件;第5章討論由抽..

內(nèi)容概要

本書主要作者Dimitri P. Bertsekas是美國麻省理工學(xué)院電氣工程和計算機科學(xué)系的資深教授,他是“動態(tài)規(guī)劃與隨機控制”、“約束優(yōu)化與Lagrange乘子方法”、“非線性規(guī)劃”、“連續(xù)和離散模型的網(wǎng)絡(luò)優(yōu)化”、“離散時間隨機最優(yōu)控制”、“并行和分布計算中的數(shù)值方法”等十余部教科書的主要作者,這些教科書的大部分被用作麻省理工學(xué)院的研究生或本科生教材,本書就是其中之一。    閱讀本書僅需要線性代數(shù)和數(shù)學(xué)分析的基本知識。通過學(xué)習(xí)本書,可以了解凸分析和優(yōu)化領(lǐng)域的主要結(jié)果,掌握有關(guān)理論的本質(zhì)內(nèi)容,提高分析和解決最優(yōu)化問題的能力。因此,所有涉足最優(yōu)化與系統(tǒng)分析領(lǐng)域的理論研究人員和實際工作者均可從學(xué)習(xí)或閱讀本書中獲得益處。此外,本書也可用作高年級大學(xué)生或研究生學(xué)習(xí)凸分析方法和最優(yōu)化理論的教材或輔助材料。

作者簡介

Dimitri P.Bertsekas,美國國家工程院院士,麻省理工學(xué)院(MIT)McAfee教授。

書籍目錄

1. Basic Convexity Concepts  1.1. Linear Algebra and Real Analysis    1.1.1. Vectors and Matrices    1.1.2. Topological Properties    1.1.3. Square Matrices    1.1.4. Derivatives  1.2. Convex Sets and Functions  1.3. Convex and Affine Hulls  1.4. Relative Interior, Closure, and Continuity  1.5. Recession Cones    1.5.1. Nonemptiness of Intersections of Closed Sets    1.5.2. Closedness Under Linear Transformations  1.6. Notes, Sources, and Exercises2. Convexity and Optimization  2.1. Global and Local Minima  2.2. The Projection Theorem  2.3. Directions of Recession and Existence of Optimal Solutions    2.3.1. Existence of Solutions of Convex Programs    2.3.2. Unbounded Optimal Solution Sets    2.3.3. Partial Minimization of Convex Functions  2.4. Hyperplanes  2.5. An Elementary Form of Duality    2.5.1. Nonvertical Hyperplanes    2.5.2. Min Common/Max Crossing Duality  2.6. Saddle Point and Minimax Theory    2.6.1. Min Common/Max Crossing Framework for Minimax    2.6.2. Minimax Theorems    2.6.3. Saddle Point Theorems  2.7. Notes, Sources, and Exercises3. Polyhedral Convexity  3.1. Polar Cones  3.2. Polyhedral Cones and Polyhedral Sets    3.2.1. Farkas' Lemma and Minkowski-Weyl Theorem    3.2.2. Polyhedral Sets    3.2.3. Polyhedral Functions  3.3. Extreme Points    3.3.1. Extreme Points of Polyhedral Sets  3.4. Polyhedral Aspects of Optimization    3.4.1. Linear Programming    3.4.2. Integer Programming  3.5. Polyhedral Aspects of Duality    3.5.1. Polyhedral Proper Separation    3.5.2. Min Common/Max Crossing Duality    3.5.3. Minimax Theory Under Polyhedral Assumptions    3.5.4. A Nonlinear Version of Farkas' Lemma     3.5.5. Convex Programming  3.6. Notes, Sources, and Exercises4. Subgradients and Constrained Optimization   4.1. Directional Derivatives  4.2. Subgradients and Subdifferentials  4.3. e-Subgradients  4.4. Subgradients of Extended Real-Valued Functions   4.5. Directional Derivative of the Max Function  4.6. Conical Approximations  4.7. Optimality Conditions  4.8. Notes, Sources, and Exercises5. Lagrange Multipliers  5.1. Introduction to Lagrange Multipliers  5.2. Enhanced Fritz John Optimality Conditions  5.3. Informative Lagrange Multipliers    5.3.1. Sensitivity    5.3.2. Alternative Lagrange Multipliers  5.4. Pseudonormality and Constraint Qualifications   5.5. Exact Penalty Functions  5.6. Using the Extended Representation  5.7. Extensions Under Convexity Assumptions  5.8. Notes, Sonrces, and Exercises6. Lagrangian Duality  6.1. Geometric Multipliers  6.2. Duality Theory  6.3. Linear and Quadratic Programming Duality  6.4. Existence of Geometric Multipliers    6.4.1. Convex Cost Linear Constraints    6.4.2. Convex Cost Convex Constraints  6.5. Strong Duality and the Primal Function    6.5.1. Duality Gap and the Primal Function    6.5.2. Conditions for No Duality Gap    6.5.3. Subgradients of the Primal Function    6.5.4. Sensitivity Analysis  6.6. Fritz John Conditions when there is no Optimal Solution    6.6.1. Enhanced Fritz John Conditions    6.6.2. Informative Geometric Multipliers  6.7. Notes, Sources, and Exercises7. Conjugate Duality  7.1. Conjugate Functions  7.2. Fenchel Duality Theorems    7.2.1. Connection of Fenchel Duality and Minimax Theory    7.2.2. Conic Duality  7.3. Exact Penalty Functions  7.4. Notes, Sources, and Exercises8. Dual Computational Methods  8.1. Dual Derivatives and Subgradients  8.2. Subgradient Methods    8.2.1. Analysis of Subgradient Methods    8.2.2. Subgradient Methods with Randomization  8.3. Cutting Plane Methods  8.4. Ascent Methods  8.5. Notes, Sources, and ExercisesReferencesIndex

圖書封面

圖書標(biāo)簽Tags

評論、評分、閱讀與下載


    凸分析與優(yōu)化 PDF格式下載


用戶評論 (總計8條)

 
 

  •   經(jīng)常混跡于優(yōu)化界的人就知道作者是MIT元老級的人物,美國人的書籍從另外一面反映了美國人的性格:善于交流,講究實際,簡單而又不膚淺。歐洲人寫書就不如美國人寫的書籍(當(dāng)然不是全部),盡管邏輯性非常強,理論深厚,但缺乏冒險精神,敢于把理論和大量的實踐結(jié)合起來(在經(jīng)濟類顯得尤其明顯)。在這里,沒有任何理由能夠拒絕這本書成為我們大學(xué)很多專業(yè)的關(guān)于凸優(yōu)化標(biāo)準(zhǔn)入門的教課書或者指導(dǎo)書。這本書不僅指導(dǎo)讀者如何去學(xué)習(xí),還給寫書的人一個tip:那就是要寫,就要讓讀者看得懂的書籍,否則就是浪費讀者大量時間和金錢,貽誤子弟,用"殺人"描述不為之過!一本好的書籍(特別是自然科學(xué)類的),需要非常深厚的學(xué)術(shù)功底積累以及不斷的文字錘煉,更加需要敢于冒險的精神,創(chuàng)造出獨特新穎的例子引發(fā)讀者的興趣和刺激潛在的好奇心。此書的閱讀需要一些線性代數(shù)和初等微積分的知識,雖然是英文版,但是閱讀一點都不吃力,不過此書有不少印刷錯誤,希望下一版本能夠更正。如果有好的翻譯本,那就更好了,畢竟閱讀母語寫的書籍,思維反映比較快。
  •   在圖書館看過這本書,覺得內(nèi)容很不錯,就再買了一本,當(dāng)當(dāng)送貨相當(dāng)?shù)目?。這本書基本上將分析與優(yōu)化十分緊密的結(jié)合起來了,可能需要先掌握一點凸分析的基本內(nèi)容。另外的Stanford的Boyd的那本CONVEX OPTIMIZATION 也相當(dāng)不錯。
  •   宏觀經(jīng)濟學(xué)也就靠它了.由淺入深,內(nèi)容詳實,并且是數(shù)學(xué)大師作品,應(yīng)該能避免讀經(jīng)濟學(xué)家寫數(shù)學(xué)書的一些弊端吧.強烈推薦.
  •   這是一本寫得很好的書,有很多基本但有用的結(jié)論,證明也很詳細。
  •   聽說關(guān)于凸分析,有一本更好的,哪買啊?
  •   書非常好,但讀者的數(shù)學(xué)功底要好,否則讀很吃力。
  •   服務(wù)熱心,有耐心,到貨時間短,圖書質(zhì)量不錯。
  •   沒看多少,看到15面第四行說參看1.1.2??墒菚锩鏇]有1.1.2,而是把公式1.1.1列出來了兩次,然后直接跳到1.1.3
 

250萬本中文圖書簡介、評論、評分,PDF格式免費下載。 第一圖書網(wǎng) 手機版

京ICP備13047387號-7