Робастное оценивание
Материал из MachineLearning.
| Строка 31: | Строка 31: | ||
Действия повторяются до достижения сходимости.  | Действия повторяются до достижения сходимости.  | ||
| - | <tex>s^2=\frac{1}{n-p}\sum{r_i^2}</tex>  | + | Если все наблюдения совершенно точны, то классическая оценка дисперсии отдельного наблюдения имеет вид  | 
| + | <tex>s^2=\frac{1}{n-p}\sum{r_i^2}</tex>,  | ||
| + | и стандартную ошибку остатка <tex>r_i</tex> можно в этом случае оценивать величиной <tex>s_i=\sqrt{1-h_i}s</tex>, где <tex>h_i</tex> есть <tex>i</tex>-й диагональный элемент матрицы <tex>H</tex>.  | ||
| - | <tex>r_i</tex>   | + | При сипользовании вместо сотатков <tex>r_i</tex> модифицированных остатков  <tex>r_i^{\ast}=y_i^{\ast}- \hat y_i </tex>, как нетрудно видеть, получается заниженная оценка масштаба. Появившееся смещение можно ликивилировать, полагая (в превом приближении)  | 
| - | + | ||
| - | + | ||
| - | + | ||
| - | + | ||
<tex>s^2=\frac{1}{n-p}\sum{{r_i}^{\ast2}/(\frac{m}{n})^2}</tex>,  | <tex>s^2=\frac{1}{n-p}\sum{{r_i}^{\ast2}/(\frac{m}{n})^2}</tex>,  | ||
Версия 19:08, 5 января 2010
Содержание | 
Введение
Вычисление робастных оценок
Рассмотрим пример. Для оценки  неизвестных параметров 
 используется 
 наблюдений 
, причем они связаны между собой следующим неравенством 
, где элементы матрицы 
 суть известные коэффициенты, а 
 - вектор независимых случайных величин,имеющих (приблизительное)одинаковые функции распределения.   
Тогда решение сводится к следующему: 
Если матрица  - матрица полного ранга 
, то 
,
а оценки 
 будут высиляться по следующей формуле 
, 
где 
, далее 
 - матрица подгонки.
Допустим, что мы получили значения  и остатки 
.
Пусть  - некоторая оценка стандартной ошибки наблюдений 
 (или стандартной ошибки остатков 
)
Метрически винзоризуем наблюдения , заменяя их псевдонаблюдениями  
:
Константа  регулирует степень робастности, её значения хорошо выбирать из промежутка от 1 до 2, например, чаще всего 
.
Затем по псевдонаблюдениям  вычисляются новые значения 
 подгонки (и новые 
).
Действия повторяются до достижения сходимости.
Если все наблюдения совершенно точны, то классическая оценка дисперсии отдельного наблюдения имеет вид
,
и стандартную ошибку остатка 
 можно в этом случае оценивать величиной 
, где 
 есть 
-й диагональный элемент матрицы 
.
При сипользовании вместо сотатков  модифицированных остатков  
, как нетрудно видеть, получается заниженная оценка масштаба. Появившееся смещение можно ликивилировать, полагая (в превом приближении)
,
Литература
- Хьюбер П. Робастность в статистике. — М.: Мир, 1984.
 
Ссылки
- Робастность в статистике.
 - Робастность статистических процедур.
 - Публикации по робастным методам оценивания параметров и проверке статистических гипотез на сайте профессора НГТУ Лемешко Б.Ю..
 - Robust statistics.
 
|   |  Данная статья является непроверенным учебным заданием.
 До указанного срока статья не должна редактироваться другими участниками проекта MachineLearning.ru. По его окончании любой участник вправе исправить данную статью по своему усмотрению и удалить данное предупреждение, выводимое с помощью шаблона {{Задание}}. См. также методические указания по использованию Ресурса MachineLearning.ru в учебном процессе.  | 

