Вычисление матриц Якоби и Гессе
Материал из MachineLearning.
| Строка 8: | Строка 8: | ||
матрица, составленная из частных производных этих функций по всем переменным.  | матрица, составленная из частных производных этих функций по всем переменным.  | ||
| - | |||
<tex>  | <tex>  | ||
J=\begin{bmatrix} \frac{\partial y_1}{\partial x_1} & \cdots & \frac{\partial y_1}{\partial x_n} \\ \vdots & \ddots & \vdots \\ \frac{\partial y_m}{\partial x_1} & \cdots & \frac{\partial y_m}{\partial x_n} \end{bmatrix}.  | J=\begin{bmatrix} \frac{\partial y_1}{\partial x_1} & \cdots & \frac{\partial y_1}{\partial x_n} \\ \vdots & \ddots & \vdots \\ \frac{\partial y_m}{\partial x_1} & \cdots & \frac{\partial y_m}{\partial x_n} \end{bmatrix}.  | ||
</tex>  | </tex>  | ||
| - | |||
Если в некоторой точке <tex>x_1 \dots x_m </tex> очень сложно или невозможно вычислить частные производные, <tex>\frac{\partial y_i}{\partial x_j} </tex>, то для вычисления матрицы Якоби применяются методы численного дифференцирования.  | Если в некоторой точке <tex>x_1 \dots x_m </tex> очень сложно или невозможно вычислить частные производные, <tex>\frac{\partial y_i}{\partial x_j} </tex>, то для вычисления матрицы Якоби применяются методы численного дифференцирования.  | ||
==== Вычисление матрицы Гессе ====  | ==== Вычисление матрицы Гессе ====  | ||
| - | '''Матрицей Гессе''' функции <  | + | '''Матрицей Гессе''' функции <tex>m</tex> переменных <tex>y(x_1 \dots x_m) </tex> называется матрица, составленная из вторых производных функции <tex>y(x_1 \dots x_m) </tex>  по всем переменным  | 
| - | + | ||
| - | =  | + | <tex>  | 
| + | H(f) = \begin{bmatrix}  | ||
| + | \frac{\partial^2 f}{\partial x_1^2} & \frac{\partial^2 f}{\partial x_1\,\partial x_2} & \cdots & \frac{\partial^2 f}{\partial x_1\,\partial x_m} \\  \\  | ||
| + | \frac{\partial^2 f}{\partial x_2\,\partial x_1} & \frac{\partial^2 f}{\partial x_2^2} & \cdots & \frac{\partial^2 f}{\partial x_2\,\partial x_m} \\  \\  | ||
| + | \vdots & \vdots & \ddots & \vdots \\  \\  | ||
| + | \frac{\partial^2 f}{\partial x_m\,\partial x_1} & \frac{\partial^2 f}{\partial x_m\,\partial x_2} & \cdots & \frac{\partial^2 f}{\partial x_m^2}  | ||
| + | \end{bmatrix}  | ||
| + | </tex>  | ||
| + | Если в некоторой точке <tex>x_1 \dots x_m </tex> очень сложно или невозможно вычислить частные производные, <tex>\frac{\partial^2 y}{\partial x_i\ \partial x_j} </tex>, то для вычисления матрицы Гессе применяются методы численного дифференцирования.  | ||
| + | |||
| + | == Изложение метода ==  | ||
| + | Для вычисления матрицы Якоби в заданной необходимо найти частные производные всех функций системы по всем переменным. Для вычисления  | ||
| + | производной <tex>{\partial y_i}{\partial x_j} </tex> можно воспользоваться любым из методов [[ Вычисление первой производной|вычисления первой производной]].    | ||
== Числовой пример ==  | == Числовой пример ==  | ||
Версия 11:07, 20 октября 2008
Содержание | 
Введение
Постановка математической задачи
Вычисление матрицы Якоби
Пусть задана система  функций 
 от 
 переменных. Матрицей Якоби данной системы функций называется
матрица, составленная из частных производных этих функций по всем переменным.
Если в некоторой точке  очень сложно или невозможно вычислить частные производные, 
, то для вычисления матрицы Якоби применяются методы численного дифференцирования.
Вычисление матрицы Гессе
Матрицей Гессе функции  переменных 
 называется матрица, составленная из вторых производных функции 
  по всем переменным
Если в некоторой точке  очень сложно или невозможно вычислить частные производные, 
, то для вычисления матрицы Гессе применяются методы численного дифференцирования.
Изложение метода
Для вычисления матрицы Якоби в заданной необходимо найти частные производные всех функций системы по всем переменным. Для вычисления
производной  можно воспользоваться любым из методов вычисления первой производной.  
Числовой пример
Рекомендации программисту
Заключение
Список литературы
- А. А. Самарский, А. В. Гулин. Численные методы. Москва «Наука», 1989.
 - Н. С. Бахвалов, Н. П. Жидков, Г. М. Кобельков. Численные методы. Лаборатория Базовых Знаний, 2003.
 - Магнус Я. Р., Нейдеккер Х. Матричное дифференциальное исчисление с приложениями к статистике и эконометрике: Пер. с англ./ Под ред. С. А. Айвазяна. — М.:ФИЗМАТЛИТ, 2002. — 496 с.
 - Хайкин С. Нейронные сети, полный курс. 2е издание, испр. - М: Вильямс. 2008. - 1103 с. ISBN 978-5-8459-0890-2
 

