Участник:Slimper/Песочница
Материал из MachineLearning.
 (Новая: ==Введение== ==Постановка задачи== ==Метод решения==)  | 
				|||
| Строка 1: | Строка 1: | ||
| - | ==  | + | ==Постановка задачи оптимизации==  | 
| - | ==  | + | Пусть задано множество <tex> X \subset R^n </tex> и на этом множестве определена ''целевая функция'' (''objective function'') <tex>f : R^n \mapsto R</tex>. Задача оптимизации состоит в нахождении на множестве <tex>X</tex>  точной верхней или точной нижней грани ''целевой функции''.  | 
| - | ==Метод решения==  | + | Множество точек, на которых достигается нижняя грань целевой функции обозначается <tex>X_* </tex>. <br/>  | 
| + | <tex>X_* = \{x \in X| f(x) = inf \limits_{x \in X} f(x) \} </tex>   | ||
| + | <br/>  | ||
| + | Если <tex> X = R^n </tex>, то задача оптимизации называется ''безусловной'' (''unconstrained'').  | ||
| + | Если <tex> X \neq R^n </tex>, то задача оптимизации называется ''условной'' (''constrained'').  | ||
| + | |||
| + | ==Метод сопряжённых направлений==  | ||
| + | ''Метод сопряжённых направлений'' (''conjugate direction method'') первоначально был разработан для решения систем линейных уравнений с положительно определённой матрицей. Позже этот метод обобщили для решения безусловных задач оптимизации в <tex>R^n</tex>  | ||
| + | ==Минимизация квадратичного функционала==  | ||
| + | Рассмотрим сначала метод сопряжённых градиентов для решения следующей задачи оптимизации:  | ||
| + | <tex>f(x) = \frac{1}{2}<Ax, x> - <b, x> \to inf, \quad x \in R^n</tex> <br/>  | ||
| + | <tex>A</tex> - симметричная положительно определённая матрица размера <tex>n \times n</tex>.  | ||
| + | Такая задача оптимизации называется квадратичной. Функция <tex>f</tex> достигает своей нижней грани в единственной точке <tex>x_*</tex>, определяемой уравнением <tex> Ax_* = b</tex> . Таким образом, данная задача оптимизации сводится к решению линейной системы  | ||
| + | <tex> Ax = b</tex>  | ||
| + | === Общий  случай ===  | ||
| + | == Литература ==  | ||
| + | Васильев Ф. П. Методы оптимизации - Издательство «Факториал Пресс», 2002  | ||
| + | Nocedal J., Wright S.J. Numerical Optimization ,Springer, 1999  | ||
Версия 17:02, 17 ноября 2008
Содержание | 
Постановка задачи оптимизации
Пусть задано множество  и на этом множестве определена целевая функция (objective function) 
. Задача оптимизации состоит в нахождении на множестве 
  точной верхней или точной нижней грани целевой функции.
Множество точек, на которых достигается нижняя грань целевой функции обозначается 
. 
 
Если , то задача оптимизации называется безусловной (unconstrained).
Если 
, то задача оптимизации называется условной (constrained).
Метод сопряжённых направлений
Метод сопряжённых направлений (conjugate direction method) первоначально был разработан для решения систем линейных уравнений с положительно определённой матрицей. Позже этот метод обобщили для решения безусловных задач оптимизации в 
Минимизация квадратичного функционала
Рассмотрим сначала метод сопряжённых градиентов для решения следующей задачи оптимизации:
 
 - симметричная положительно определённая матрица размера 
.
Такая задача оптимизации называется квадратичной. Функция 
 достигает своей нижней грани в единственной точке 
, определяемой уравнением 
 . Таким образом, данная задача оптимизации сводится к решению линейной системы
Общий случай
Литература
Васильев Ф. П. Методы оптимизации - Издательство «Факториал Пресс», 2002 Nocedal J., Wright S.J. Numerical Optimization ,Springer, 1999

