МЛР
Материал из MachineLearning.
 (→Сингулярное разложение)  | 
				|||
| Строка 20: | Строка 20: | ||
<tex>P_{_F} y</tex> — вектор, являющийся проекцией <tex>y</tex> на <tex>\mathfrak{L}(f_1,\ \dots,\ f_n)</tex>.<br />  | <tex>P_{_F} y</tex> — вектор, являющийся проекцией <tex>y</tex> на <tex>\mathfrak{L}(f_1,\ \dots,\ f_n)</tex>.<br />  | ||
{{бледно|<small>как нарисовать значок проекционной матрицы, чтобы его можно было отличить от того, на что матрица умножается?!</small>}}  | {{бледно|<small>как нарисовать значок проекционной матрицы, чтобы его можно было отличить от того, на что матрица умножается?!</small>}}  | ||
| + | |||
| + | Теперь рассмотрим [[МЛР#Сингулярное разложение|сингулярное разложение]] матрицы F:  | ||
== Сингулярное разложение ==  | == Сингулярное разложение ==  | ||
| - | Пусть <tex>  | + | Пусть <tex>F \in \mathbb{R}^{l x n}:\ rank(F) = n;\ l \ge n</tex>, тогда F представима в виде <tex>F = VDU^T</tex>, где:  | 
# <tex>D = diag(\sqrt{\lambda _1},\ \dots,\ \sqrt{\lambda _n}),\ \lambda _j</tex> — собственные значения матрицы <tex>F^TF,\ \lambda _j \ >\ 0, j=1,\ \dots,\ n</tex>.<ref>Или, что то же самое, ненулевые собственные значения матрицы <tex>FF^T</tex>.</ref>  | # <tex>D = diag(\sqrt{\lambda _1},\ \dots,\ \sqrt{\lambda _n}),\ \lambda _j</tex> — собственные значения матрицы <tex>F^TF,\ \lambda _j \ >\ 0, j=1,\ \dots,\ n</tex>.<ref>Или, что то же самое, ненулевые собственные значения матрицы <tex>FF^T</tex>.</ref>  | ||
# <tex>V = (v_1,\ \ldots,\ v_n),\ v_i</tex> — собственные вектора <tex>FF^T</tex>, причём <tex>V^TV = I_n</tex>.  | # <tex>V = (v_1,\ \ldots,\ v_n),\ v_i</tex> — собственные вектора <tex>FF^T</tex>, причём <tex>V^TV = I_n</tex>.  | ||
Версия 23:07, 4 января 2010
|   |  Данная статья является непроверенным учебным заданием.
 До указанного срока статья не должна редактироваться другими участниками проекта MachineLearning.ru. По его окончании любой участник вправе исправить данную статью по своему усмотрению и удалить данное предупреждение, выводимое с помощью шаблона {{Задание}}. См. также методические указания по использованию Ресурса MachineLearning.ru в учебном процессе.  | 
Многомерная линейная регрессия
Имеется множество объектов  и множество ответов 
. Также имеется набор 
 вещественнозначных признаков 
. Введём матричные обозначения: матрицу информации 
, целевой вектор 
 и вектор параметров 
:
Алгоритм:
.
Оценим качество его работы на выборке   методом наименьших квадратов:
, или, в матричных обозначениях,
.
Найдём минимум  по α:
.
Если , то можно обращать матрицу 
, где введено обозначение 
.
В таком случае функционал качества записывается в более удобной форме:
, где
— проекционная матрица:
 — вектор, являющийся проекцией 
 на 
.
как нарисовать значок проекционной матрицы, чтобы его можно было отличить от того, на что матрица умножается?!
Теперь рассмотрим сингулярное разложение матрицы F:
Сингулярное разложение
Пусть , тогда F представима в виде 
, где:
-  
— собственные значения матрицы
.[1]
 -  
— собственные вектора
, причём
.
 -  
— собственные вектора
, причём
.
 

