Многомерная линейная регрессия
Материал из MachineLearning.
(Различия между версиями)
												
			
			 (Новая: coming soon)  | 
				|||
| Строка 1: | Строка 1: | ||
| - | + | {{UnderConstruction|[[Участник:SL|SL]] 20:42, 10 января 2009 (MSK)}}  | |
| + | == Многомерная линейная регрессия ==  | ||
| + | Пусть имеется набор <tex>n</tex> вещественнозначных признаков <tex>f_j(x), j=1,...,n</tex>. Задача минимизации функционала качества [[Метод наименьших квадратов| метода наименьших квадратов]]  | ||
| + | ::<tex>Q(\alpha, X^l) = \sum_{i=1}^l\mathbf{w}_i(f(x_i, \alpha)-y_i)^2\longrightarrow\min</tex>  | ||
| + | существенно упрощается, если модель алгоритмов линейна по параметрам <tex>\alpha \in \mathbb{R}^n</tex>:  | ||
| + | ::<tex>f(x,\alpha) = \sum_{j=1}^n\alpha_jf_j(x)</tex>.  | ||
| + | Введём матричные обозначения: матрицу информации <tex>F</tex>, целевой вектор <tex>y</tex>, вектор параметров <tex>\alpha</tex> и диагональную матрицу весов <tex>W</tex>:  | ||
| + | ::<tex>F=\(f_1(x_1)\ \ \ldots\ \ f_n(x_1)<br>\ \vdots\ \ \ \ \ \ \ \ \ \ \ddots\ \ \ \ \vdots<br>f_1(x_l)\ \ \ldots\ \ f_n(x_l)\)\;, \ \ \ y=\(y_1<br>\ \vdots<br>y_l\)\;, \ \ \ \alpha=\(\alpha_1<br>\ \vdots<br>\alpha_n\)\;, \ \ \ W=\(\sqrt{w_1}\ \ \ \ \ \ \ \ 0\ <br>\ \ \ \ \ \ \ddots<br>\ 0\ \ \ \ \ \ \ \ \sqrt{w_l}\)\;.</tex>  | ||
| + | В матричных обозначениях функционал среднего квадрата ощибки принимает вид  | ||
| + | ::<tex>Q(\alpha)\ =\ \parallel W(F\alpha\ -\ y)\parallel^2</tex>.  | ||
| + | Функционал с произвольными весами легко преводится к функционалу с единичными весами путём несложной предванительной обработки данных <tex>F' = WF\ ,\ y' = Wy\ </tex>:  | ||
| + | ::<tex>Q(\alpha)\ =\ \parallel F'\alpha\ -\ y'\parallel^2\ =\ (F'\alpha\ -\ y')^\top(F'\alpha\ -\ y')</tex>  | ||
Версия 17:42, 10 января 2009
|   |  Статья в настоящий момент дорабатывается. SL 20:42, 10 января 2009 (MSK)  | 
Многомерная линейная регрессия
Пусть имеется набор  вещественнозначных признаков 
. Задача минимизации функционала качества  метода наименьших квадратов
существенно упрощается, если модель алгоритмов линейна по параметрам :
.
Введём матричные обозначения: матрицу информации , целевой вектор 
, вектор параметров 
 и диагональную матрицу весов 
:
В матричных обозначениях функционал среднего квадрата ощибки принимает вид
.
Функционал с произвольными весами легко преводится к функционалу с единичными весами путём несложной предванительной обработки данных :

