Робастное оценивание
Материал из MachineLearning.
| Строка 5: | Строка 5: | ||
Рассмотрим пример. Для оценки <tex>p</tex> неизвестных параметров <tex>\theta_1,\; \dots ,\theta_p</tex> используется <tex>n</tex> наблюдений <tex>y_1,\; \dots,y_n</tex>, причем они связаны между собой следующим неравенством <tex>\mathbf{y}=X\mathbf{\theta}+\mathbf{u}</tex>, где элементы матрицы <tex>X</tex> суть известные коэффициенты, а <tex>\mathbf{u}</tex> - вектор независимых случайных величин,имеющих (приблизительное)одинаковые функции распределения.     | Рассмотрим пример. Для оценки <tex>p</tex> неизвестных параметров <tex>\theta_1,\; \dots ,\theta_p</tex> используется <tex>n</tex> наблюдений <tex>y_1,\; \dots,y_n</tex>, причем они связаны между собой следующим неравенством <tex>\mathbf{y}=X\mathbf{\theta}+\mathbf{u}</tex>, где элементы матрицы <tex>X</tex> суть известные коэффициенты, а <tex>\mathbf{u}</tex> - вектор независимых случайных величин,имеющих (приблизительное)одинаковые функции распределения.     | ||
| - | <tex>|\mathbf{y}-X\mathbf{\theta}|^2 \rightarrow \min</tex>  | + | Тогда решение сводится к следующему: <tex>|\mathbf{y}-X\mathbf{\theta}|^2 \rightarrow \min</tex>  | 
| - | <tex>X</tex> <tex>p</tex>  | + | Если матрица <tex>X</tex> - матрица полного ранга <tex>p</tex>, то <tex>\hat \theta={(X^{T}X)}^{-1}X^T\mathbf{y}</tex>,  | 
| - | + | а оценки <tex>\hat y_i</tex> будут высиляться по следующей формуле <tex>\hat{\mathbf{y}} = H\mathbf{y}</tex>,   | |
| - | <tex>\hat y_i</tex>  | + | где <tex>H=X{(X^{T}X)}^{-1}X^T</tex>, далее <tex>H</tex> - матрица подгонки.  | 
| - | + | ||
| - | <tex>\hat{\mathbf{y}} = H\mathbf{y}</tex>, <tex>H=X{(X^{T}X)}^{-1}X^T</tex>  | + | |
| - | + | ||
| - | <tex>H</tex>  | + | |
<tex>\hat y_i</tex> <tex>r_i=y_i-\hat y_i</tex>  | <tex>\hat y_i</tex> <tex>r_i=y_i-\hat y_i</tex>  | ||
Версия 18:55, 5 января 2010
Содержание | 
Введение
Вычисление робастных оценок
Рассмотрим пример. Для оценки  неизвестных параметров 
 используется 
 наблюдений 
, причем они связаны между собой следующим неравенством 
, где элементы матрицы 
 суть известные коэффициенты, а 
 - вектор независимых случайных величин,имеющих (приблизительное)одинаковые функции распределения.   
Тогда решение сводится к следующему: 
Если матрица  - матрица полного ранга 
, то 
,
а оценки 
 будут высиляться по следующей формуле 
, 
где 
, далее 
 - матрица подгонки.
 
 
 (
)
  
Литература
- Хьюбер П. Робастность в статистике. — М.: Мир, 1984.
 
Ссылки
- Робастность в статистике.
 - Робастность статистических процедур.
 - Публикации по робастным методам оценивания параметров и проверке статистических гипотез на сайте профессора НГТУ Лемешко Б.Ю..
 - Robust statistics.
 
|   |  Данная статья является непроверенным учебным заданием.
 До указанного срока статья не должна редактироваться другими участниками проекта MachineLearning.ru. По его окончании любой участник вправе исправить данную статью по своему усмотрению и удалить данное предупреждение, выводимое с помощью шаблона {{Задание}}. См. также методические указания по использованию Ресурса MachineLearning.ru в учебном процессе.  | 

