Проверка статистических гипотез

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Новая: {{TOCright}} '''Статистическая гипотеза''' (statistical hypothesys) — определённое предположение о распределении вероя...)
м (Альтернативная методика на основе достигаемого уровня значимости)
 
(32 промежуточные версии не показаны)
Строка 1: Строка 1:
{{TOCright}}
{{TOCright}}
-
'''Статистическая гипотеза''' (statistical hypothesys) — определённое предположение о распределении вероятностей, лежащем в основе наблюдаемой [[выборка|выборки данных]].
+
'''Статистическая гипотеза''' (statistical hypothesys) — это определённое предположение о распределении вероятностей, лежащем в основе наблюдаемой [[выборка|выборки данных]].
-
'''Проверка статистических гипотез''' (testing statistical hypotheses) — методология принятия решений о том, что рассматриваемая статистическая гипотеза не противоречит наблюдаемой [[выборка|выборке данных]].
+
'''Проверка статистической гипотезы''' (testing statistical hypotheses) — это процесс принятия решения о том, противоречит ли рассматриваемая статистическая гипотеза наблюдаемой [[выборка|выборке данных]].
-
Чаще всего рассматриваются две гипотезы — ''основная'' или ''нулевая'' <tex>H_0</tex> и альтернативная&nbsp;<tex>H_1</tex>.
+
-
Иногда альтернатива не формулируется в явном виде; тогда предполагается, что&nbsp;<tex>H_1</tex> означает «не&nbsp;<tex>H_0</tex>».
+
-
Иногда рассматривается сразу несколько альтернатив.
+
-
== Методология ==
+
'''Статистический тест''' или '''статистический критерий''' строгое математическое правило, по которому принимается или отвергается ''статистическая гипотеза''.
-
Пусть задана случайная [[выборка]] <tex>x^m = (x_1,\ldots,x_m)</tex> последовательность <tex>m</tex> объектов из множества <tex>X</tex>, на котором существует (но не известна) вероятностная мера&nbsp;<tex>\mathbb{P}</tex>.
+
-
Общая методика состоит в следующем.
+
== Методика проверки статистических гипотез ==
 +
Пусть задана случайная [[выборка]] <tex>x^m = (x_1,\ldots,x_m)</tex> — последовательность <tex>m</tex> объектов из множества <tex>X</tex>.
 +
Предполагается, что на множестве <tex>X</tex> существует некоторая неизвестная вероятностная мера&nbsp;<tex>\mathbb{P}</tex>.
-
# Формулируется ''нулевая'' гипотеза&nbsp;<tex>H_0</tex> о&nbsp;распределении вероятностей на множестве&nbsp;<tex>X</tex>. Собственно, это именно то, что мы собираемся проверить. Гипотеза формулируется исходя из требований прикладной задачи. В&nbsp;математической статистике хорошо изучено несколько десятков «наиболее часто встречающихся» типов гипотез, и известны ещё сотни специальных вариантов и разновидностей.
+
Методика состоит в следующем.
-
# Задаётся некоторая [[статистика]] <tex>T:\: X^m \to \mathbb{R}</tex>, для которой в условиях справедливости гипотезы <tex>H_0</tex> выводится [[функция распределения]] <tex>F(T)</tex> и/или [[плотность распределения]]&nbsp;<tex>p(T)</tex>. Вопрос о том, какую статистику надо взять для проверки той или иной гипотезы, часто не имеет однозначного ответа. Есть целый ряд требований, предъявляемых к «хорошей» статистике&nbsp;<tex>T</tex>. Задача получения функции распределения <tex>F(T)</tex> при заданных&nbsp;<tex>H_0</tex> и&nbsp;<tex>T</tex> является строго поставленной математической задачей, которая решается методами теории вероятностей; в справочниках приводятся готовые формулы; в статистических пакетах имеются готовые вычислительные процедуры.
+
-
# Фиксируется ''[[уровень значимости]]''&nbsp;<tex>\alpha</tex> — число из отрезка <tex>[0,1]</tex>, которое можно интерпретировать как «достаточно малую вероятность». Её&nbsp;выбирают исходя из априорных соображений риска, допустимого для принимаемого решения в данной прикладной задаче. Часто полагают <tex>\alpha=0.05</tex>.
+
-
# На множестве допустимых значений статистики&nbsp;<tex>T</tex> выделяется ''критическое множество''&nbsp;<tex>\Omega</tex> наименее вероятных значений&nbsp;<tex>T</tex> такое, что <tex>\Prob\{T\in\Omega\} = \alpha</tex>. Вычисление вида критического множества также является строгой математической задачей, решение которой для большинства практических случаев известно.
+
-
# Статистический тест
+
-
{{UnderConstruction|[[Участник:Vokov|К.В.Воронцов]] 23:18, 6 августа 2008 (MSD)}}
+
# Формулируется ''нулевая гипотеза''&nbsp;<tex>H_0</tex> о&nbsp;распределении вероятностей на множестве&nbsp;<tex>X</tex>. Гипотеза формулируется исходя из требований прикладной задачи. Чаще всего рассматриваются две гипотезы — ''основная'' или ''нулевая'' <tex>H_0</tex> и альтернативная&nbsp;<tex>H_1</tex>. Иногда альтернатива не формулируется в явном виде; тогда предполагается, что&nbsp;<tex>H_1</tex> означает «не&nbsp;<tex>H_0</tex>». Иногда рассматривается сразу несколько альтернатив. В&nbsp;математической статистике хорошо изучено несколько десятков «наиболее часто встречающихся» типов гипотез, и известны ещё сотни специальных вариантов и разновидностей. Примеры приводятся ниже.
 +
# Задаётся некоторая [[статистика (функция выборки)]] <tex>T:\: X^m \to \mathbb{R}</tex>, для которой в условиях справедливости гипотезы <tex>H_0</tex> выводится [[функция распределения]] <tex>F(T)</tex> и/или [[плотность распределения]]&nbsp;<tex>p(T)</tex>. Вопрос о том, какую статистику надо взять для проверки той или иной гипотезы, часто не имеет однозначного ответа. Есть целый ряд требований, которым должна удовлетворять «хорошая» статистика&nbsp;<tex>T</tex>. Вывод функции распределения <tex>F(T)</tex> при заданных&nbsp;<tex>H_0</tex> и&nbsp;<tex>T</tex> является строгой математической задачей, которая решается методами теории вероятностей; в&nbsp;справочниках приводятся готовые формулы для&nbsp;<tex>F(T)</tex>; в&nbsp;статистических пакетах имеются готовые вычислительные процедуры.
 +
# Фиксируется ''[[уровень значимости]]'' — допустимая для данной задачи вероятность ''ошибки первого рода'', то есть того, что гипотеза на самом деле верна, но будет отвергнута процедурой проверки. Это должно быть достаточно малое число <tex>\alpha \in [0,1]</tex>. На&nbsp;практике часто полагают <tex>\alpha=0.05</tex>.
 +
# На множестве допустимых значений статистики&nbsp;<tex>T</tex> выделяется ''критическое множество''&nbsp;<tex>\Omega_\alpha</tex> наименее вероятных значений статистики&nbsp;<tex>T</tex>, такое, что <tex>\mathbb{P}\{T\in\Omega_\alpha\left|H_0\right.\} = \alpha</tex>. Вычисление границ критического множества как функции от уровня значимости <tex>\alpha</tex> является строгой математической задачей, которая в большинстве практических случаев имеет готовое простое решение.
 +
# Собственно ''статистический тест'' (''статистический критерий'') заключается в проверке условия:
 +
#* если <tex>T(X^m)\in\Omega_\alpha</tex>, то делается вывод «данные противоречат нулевой гипотезе при уровне значимости&nbsp;<tex>\alpha</tex>». Гипотеза отвергается.
 +
#* если <tex>T(X^m)\notin\Omega_\alpha</tex>, то делается вывод «данные не противоречат нулевой гипотезе при уровне значимости&nbsp;<tex>\alpha</tex>». Гипотеза принимается.
 +
 
 +
Итак, ''статистический критерий'' определяется статистикой&nbsp;<tex>T</tex>
 +
и критическим множеством&nbsp;<tex>\Omega_\alpha</tex>, которое зависит от уровня значимости <tex>\alpha</tex>.
 +
 
 +
'''Замечание.'''
 +
Если данные не противоречат нулевой гипотезе, это ещё не значит, что гипотеза верна.
 +
Тому есть две причины.
 +
* По&nbsp;мере увеличения длины выборки нулевая гипотеза может сначала приниматься, но потом выявятся более тонкие несоответствия данных гипотезе, и она будет отвергнута. То есть многое зависит от объёма данных; если данных не хватает, можно принять даже самую неправдоподобную гипотезу.
 +
* Выбранная статистика <tex>T</tex> может отражать не всю информацию, содержащуюся в гипотезе&nbsp;<tex>H_0</tex>. В&nbsp;таком случае увеличивается вероятность ошибки второго рода — нулевая гипотеза может быть принята, хотя на самом деле она не верна. Допустим, например, что <tex>H_0</tex> = «распределение нормально»; <tex>T(X^m)</tex> = «[[коэффициент асимметрии]]»; тогда выборка с любым симметричным распределением будет признана нормальной. Чтобы избегать таких ошибок, следует пользоваться более [[Мощность критерия|мощными критериями]].
 +
 
 +
== Альтернативная методика на основе достигаемого уровня значимости ==
 +
 
 +
Широкое распространение методики фиксированного уровня значимости было вызвано сложностью вычисления многих статистических критериев в докомпьютерную эпоху. Чаще всего использовались таблицы, в которых для некоторых априорных уровней значимости были выписаны критические значения. В&nbsp;настоящее время результаты проверки гипотез чаще представляют с помощью [[Достигаемый уровень значимости|достигаемого уровня значимости]].
 +
 
 +
'''Достигаемый уровень значимости''' (пи-величина, англ. p-value) — это наименьшая величина уровня значимости,
 +
при которой нулевая гипотеза отвергается для данного значения статистики критерия&nbsp;<tex>T:</tex>
 +
::<tex>p(T) = \min \{ \alpha:\: T\in\Omega_\alpha \},</tex>
 +
где
 +
<tex>\Omega_\alpha</tex> — критическая область критерия.
 +
 
 +
Другая интерпретация:
 +
достигаемый уровень значимости <tex>p(T)</tex> — это вероятность при справедливости нулевой гипотезы получить значение статистики, такое же или ещё более экстремальное, чем&nbsp;<tex>T.</tex>
 +
 
 +
Если достигаемый уровень значимости достаточно мал (близок к нулю), то нулевая гипотеза отвергается.
 +
В&nbsp;частности, его можно сравнивать с фиксированным уровнем значимости;
 +
тогда альтернативная методика будет эквивалентна классической.
 +
 
 +
== Типы критической области ==
 +
 
 +
Обозначим через <tex>t_\alpha</tex> значение, которое находится из уравнения <tex>F(t_\alpha) = \alpha</tex>, где&nbsp;<tex>F(t) = \mathbb{P}\left\{ T<t \right\}</tex> — функция распределения статистики&nbsp;<tex>T</tex>.
 +
Если функция распределения непрерывная строго монотонная,
 +
то <tex>t_\alpha</tex> есть обратная к ней функция:
 +
::<tex>t_\alpha = F^{-1}(\alpha)</tex>.
 +
Значение <tex>t_\alpha</tex> называется также <tex>\alpha</tex>-''[[квантиль|квантилем]] распределения''&nbsp;<tex>F(t)</tex>.
 +
 
 +
На практике, как правило, используются статистики&nbsp;<tex>T</tex> с унимодальной (имеющей форму пика) плотностью распределения.
 +
Критические области (наименее вероятные значения статистики) соответствуют «хвостам» этого распределения.
 +
Поэтому чаще всего возникают критические области одного из трёх типов:
 +
 
 +
* '''Левосторонняя критическая область:'''
 +
:: определяется интервалом <tex>\Omega_\alpha = (-\infty,\, t_\alpha)</tex>.
 +
:: пи-величина: <tex>p(T) = F(T).</tex>
 +
 
 +
* '''Правосторонняя критическая область:'''
 +
:: определяется интервалом <tex>\Omega_\alpha = (t_{1-\alpha},\,+\infty)</tex>.
 +
:: пи-величина: <tex>p(T) = 1-F(T).</tex>
 +
 
 +
* '''Двусторонняя критическая область:'''
 +
:: определяется двумя интервалами <tex>\Omega_\alpha = (-\infty,\, t_{\alpha/2}) \cup (t_{1-\alpha/2},\,+\infty);</tex>
 +
:: пи-величина: <tex>p(T) = \min \left\{ 2F(T),\; 2(1-F(T)) \right\}.</tex>
 +
 
 +
== Ошибки первого и второго рода ==
 +
 
 +
* '''Ошибка первого рода''' или «ложная тревога» (англ. type I error, <tex>\alpha</tex>&nbsp;error, false positive) — когда нулевая гипотеза отвергается, хотя на самом деле она верна. Вероятность ошибки первого рода:
 +
::<tex>\alpha = \mathbb{P}\left\{ T\in\Omega_\alpha | H_0 \right\}.</tex>
 +
 
 +
* '''Ошибка второго рода''' или «пропуск цели» (англ. type II error, <tex>\beta</tex>&nbsp;error, false negative) — когда нулевая гипотеза принимается, хотя на самом деле она не верна. Вероятность ошибки второго рода:
 +
::<tex>\beta(H_1) = \mathbb{P}\left\{ T\notin\Omega_\alpha | H_1 \right\}.</tex>
 +
 
 +
<center>
 +
{| class = "standard"
 +
|+
 +
! colspan=2 rowspan=2|&nbsp;
 +
! colspan=2 |Верная гипотеза
 +
|-
 +
! |&nbsp;<tex>H_0</tex>&nbsp;
 +
! |&nbsp;<tex>H_1</tex>&nbsp;
 +
|-
 +
! rowspan=2 |Результат<br/>&nbsp;применения&nbsp;<br/>критерия
 +
! |&nbsp;<tex>H_0</tex>&nbsp;
 +
| style="background: #ddffdd;" | <tex>H_0</tex> верно принята
 +
| style="background: #ffdddd;" | <tex>H_0</tex> неверно принята&nbsp;<br/>(Ошибка ''второго'' рода)
 +
|-
 +
! |&nbsp;<tex>H_1</tex>&nbsp;
 +
| style="background: #ffdddd;" | <tex>H_0</tex> неверно отвергнута&nbsp;<br/>(Ошибка ''первого'' рода)
 +
| style="background: #ddffdd;" | <tex>H_0</tex> верно отвергнута
 +
|}
 +
</center>
 +
 
 +
== Свойства статистических критериев ==
 +
 
 +
'''Мощность критерия''':
 +
<tex>1 - \beta(H) = \mathbb{P}\left\{ T\in\Omega_\alpha | H \right\}</tex> — вероятность отклонить гипотезу&nbsp;<tex>H_0</tex>, если на самом деле верна альтернативная гипотеза&nbsp;<tex>H</tex>.
 +
''Мощность критерия'' является числовой функцией от альтернативной гипотезы&nbsp;<tex>H</tex>.
 +
 +
'''Несмещённый критерий''':
 +
<tex>1-\beta(H) \geq \alpha</tex>
 +
для всех альтернатив&nbsp;<tex>H</tex>
 +
или, что то же самое,
 +
<tex>\mathbb{P}\left\{ T\in\Omega_\alpha | H \right\} \geq \mathbb{P}\left\{ T\in\Omega_\alpha | H_0 \right\}</tex>
 +
для всех альтернатив&nbsp;<tex>H</tex>.
 +
 
 +
'''Состоятельный критерий''':
 +
<tex>\beta(H) \to 0</tex> при <tex>m\to\infty</tex> для всех альтернатив&nbsp;<tex>H</tex>.
 +
 
 +
'''Равномерно более мощный критерий.'''
 +
Говорят, что критерий с мощностью <tex>1-\beta(H)</tex> является равномерно более мощным, чем критерий с мощностью <tex>1-\beta'(H)</tex>, если выполняются два условия:
 +
#<tex>\beta(H_0) = \beta'(H_0)</tex>;
 +
#<tex>\beta(H_1) \leq \beta'(H_1)</tex> для всех рассматриваемых альтернатив <tex>H_1\neq H_0</tex>, причём хотя бы для одной альтернативы неравенство строгое.
 +
 
 +
== Типы статистических гипотез ==
 +
 
 +
* '''Простая гипотеза''' однозначно определяет функцию распределения на множестве&nbsp;<tex>X</tex>. Простые гипотезы имеют узкую область применения, ограниченную критериями согласия (см.&nbsp;ниже). Для простых гипотез известен общий вид равномерно более мощного критерия ([[Теорема Неймана-Пирсона]]).
 +
 
 +
* '''Сложная гипотеза''' утверждает принадлежность распределения к некоторому множеству распределений на&nbsp;<tex>X</tex>. Для сложных гипотез вывести равномерно более мощный критерий удаётся лишь в некоторых специальных случаях.
 +
 
 +
== Типы статистических критериев ==
 +
В зависимости от проверяемой ''нулевой гипотезы'' статистические критерии делятся на группы, перечисленные ниже по разделам.
 +
 
 +
Наряду с ''нулевой гипотезой'', которая принимается или отвергается по результату анализа выборки, статистические критерии могут опираться на ''дополнительные предположения'', которые априори предпологаются выполненными.
 +
 
 +
* ''Параметрические критерии'' предполагают, что выборка порождена распределением из заданного параметрического семейства. В&nbsp;частности, существует много критериев, предназначенных для анализа выборок из нормального распределения. Преимущество этих критериев в том, что они более мощные. Если выборка действительно удовлетворяет дополнительным предположениям, то параметрические критерии дают более точные результаты. Однако если выборка им не удовлетворяет, то вероятность ошибок (как I, так и II рода) может резко возрасти. Прежде чем применять такие критерии, необходимо убедиться, что выборка удовлетворяет дополнительным предположениям. Гипотезы о виде распределения проверяются с помощью критериев согласия.
 +
 
 +
* ''Непараметрические критерии'' не опираются на дополнительные предположения о распределении. В&nbsp;частности, к этому типу критериев относится большинство [[:Категория:Ранговые критерии|ранговых критериев]].
 +
 
 +
=== Критерии согласия ===
 +
Критерии согласия проверяют, согласуется ли заданная выборка с заданным фиксированным распределением, с заданным параметрическим семейством распределений, или с другой выборкой.
 +
* [[Критерий Колмогорова-Смирнова]]
 +
* [[Критерий хи-квадрат]] (Пирсона)
 +
* [[Критерий омега-квадрат]] (фон Мизеса)
 +
 
 +
=== Критерии сдвига ===
 +
Специальный случай двухвыборочных критериев согласия.
 +
Проверяется [[гипотеза сдвига]], согласно которой распределения двух выборок имеют одинаковую форму и отличаются только сдвигом на константу.
 +
* [[Критерий Стьюдента]]
 +
* [[Критерий Уилкоксона-Манна-Уитни]]
 +
 
 +
=== Критерии нормальности ===
 +
Критерии нормальности — это выделенный частный случай критериев согласия.
 +
Нормально распределённые величины часто встречаются в прикладных задачах, что обусловлено действием закона больших чисел.
 +
Если про выборки заранее известно, что они подчиняются нормальному распределению, то к ним становится возможно применять более мощные параметрические критерии.
 +
Проверка нормальность часто выполняется на первом шаге анализа выборки, чтобы решить, использовать далее параметрические методы или непараметрические.
 +
В&nbsp;справочнике А.&nbsp;И.&nbsp;Кобзаря приведена сравнительная таблица мощности для 21&nbsp;критерия нормальности.
 +
* [[Критерий Шапиро-Уилка]]
 +
* [[Критерий асимметрии и эксцесса]]
 +
 
 +
=== Критерии однородности ===
 +
Критерии однородности предназначены для проверки нулевой гипотезы о том, что
 +
две выборки (или несколько) взяты из одного распределения,
 +
либо их распределения имеют одинаковые значения математического ожидания, дисперсии, или других параметров.
 +
 
 +
=== Критерии симметричности ===
 +
Критерии симметричности позволяют проверить симметричность распределения.
 +
* [[Одновыборочный критерий Уилкоксона]] и его модификации: критерий Антилла-Кёрстинга-Цуккини, критерий Бхаттачария-Гаствирса-Райта
 +
* [[Критерий знаков]]
 +
* [[Коэффициент асимметрии]]
 +
 
 +
=== Критерии тренда, стационарности и случайности ===
 +
Критерии тренда и случайности предназначены для проверки нулевой гипотезы об
 +
отсутствии зависимости между выборочными данными и номером наблюдения в выборке.
 +
Они часто применяются в анализе [[временной ряд|временных рядов]], в частности, при [[анализ регрессионных остатков|анализе регрессионных остатков]].
 +
 
 +
=== Критерии выбросов ===
 +
 
 +
=== Критерии дисперсионного анализа ===
 +
 
 +
=== Критерии корреляционного анализа ===
 +
 
 +
=== Критерии регрессионного анализа ===
== Литература ==
== Литература ==
# Вероятность и математическая статистика: Энциклопедия / Под ред. Ю.В.Прохорова. — М.:&nbsp;Большая российская энциклопедия, 2003. — 912&nbsp;с.
# Вероятность и математическая статистика: Энциклопедия / Под ред. Ю.В.Прохорова. — М.:&nbsp;Большая российская энциклопедия, 2003. — 912&nbsp;с.
-
# ''Кобзарь А. И.'' Прикладная математическая статистика. — М.:&nbsp;Физматлит, 2006.
+
# ''Кобзарь А. И.'' Прикладная математическая статистика. Справочник для инженеров и научных работников. — М.:&nbsp;Физматлит, 2006. — 816&nbsp;с.
 +
 
 +
== Ссылки ==
 +
* [http://en.wikipedia.org/wiki/Statistical_hypothesis_testing Statistical hypothesis testing] — статья в англоязычной Википедии.
 +
{{Stub}}
[[Категория:Математическая статистика]]
[[Категория:Математическая статистика]]
 +
[[Категория:Статистические тесты]]
[[Категория:Прикладная статистика]]
[[Категория:Прикладная статистика]]
 +
[[Категория:Популярные и обзорные статьи]]
 +
[[Категория:Энциклопедия анализа данных]]

Текущая версия

Содержание

Статистическая гипотеза (statistical hypothesys) — это определённое предположение о распределении вероятностей, лежащем в основе наблюдаемой выборки данных.

Проверка статистической гипотезы (testing statistical hypotheses) — это процесс принятия решения о том, противоречит ли рассматриваемая статистическая гипотеза наблюдаемой выборке данных.

Статистический тест или статистический критерий — строгое математическое правило, по которому принимается или отвергается статистическая гипотеза.

Методика проверки статистических гипотез

Пусть задана случайная выборка x^m = (x_1,\ldots,x_m) — последовательность m объектов из множества X. Предполагается, что на множестве X существует некоторая неизвестная вероятностная мера \mathbb{P}.

Методика состоит в следующем.

  1. Формулируется нулевая гипотеза H_0 о распределении вероятностей на множестве X. Гипотеза формулируется исходя из требований прикладной задачи. Чаще всего рассматриваются две гипотезы — основная или нулевая H_0 и альтернативная H_1. Иногда альтернатива не формулируется в явном виде; тогда предполагается, что H_1 означает «не H_0». Иногда рассматривается сразу несколько альтернатив. В математической статистике хорошо изучено несколько десятков «наиболее часто встречающихся» типов гипотез, и известны ещё сотни специальных вариантов и разновидностей. Примеры приводятся ниже.
  2. Задаётся некоторая статистика (функция выборки) T:\: X^m \to \mathbb{R}, для которой в условиях справедливости гипотезы H_0 выводится функция распределения F(T) и/или плотность распределения p(T). Вопрос о том, какую статистику надо взять для проверки той или иной гипотезы, часто не имеет однозначного ответа. Есть целый ряд требований, которым должна удовлетворять «хорошая» статистика T. Вывод функции распределения F(T) при заданных H_0 и T является строгой математической задачей, которая решается методами теории вероятностей; в справочниках приводятся готовые формулы для F(T); в статистических пакетах имеются готовые вычислительные процедуры.
  3. Фиксируется уровень значимости — допустимая для данной задачи вероятность ошибки первого рода, то есть того, что гипотеза на самом деле верна, но будет отвергнута процедурой проверки. Это должно быть достаточно малое число \alpha \in [0,1]. На практике часто полагают \alpha=0.05.
  4. На множестве допустимых значений статистики T выделяется критическое множество \Omega_\alpha наименее вероятных значений статистики T, такое, что \mathbb{P}\{T\in\Omega_\alpha\left|H_0\right.\} = \alpha. Вычисление границ критического множества как функции от уровня значимости \alpha является строгой математической задачей, которая в большинстве практических случаев имеет готовое простое решение.
  5. Собственно статистический тест (статистический критерий) заключается в проверке условия:
    • если T(X^m)\in\Omega_\alpha, то делается вывод «данные противоречат нулевой гипотезе при уровне значимости \alpha». Гипотеза отвергается.
    • если T(X^m)\notin\Omega_\alpha, то делается вывод «данные не противоречат нулевой гипотезе при уровне значимости \alpha». Гипотеза принимается.

Итак, статистический критерий определяется статистикой T и критическим множеством \Omega_\alpha, которое зависит от уровня значимости \alpha.

Замечание. Если данные не противоречат нулевой гипотезе, это ещё не значит, что гипотеза верна. Тому есть две причины.

  • По мере увеличения длины выборки нулевая гипотеза может сначала приниматься, но потом выявятся более тонкие несоответствия данных гипотезе, и она будет отвергнута. То есть многое зависит от объёма данных; если данных не хватает, можно принять даже самую неправдоподобную гипотезу.
  • Выбранная статистика T может отражать не всю информацию, содержащуюся в гипотезе H_0. В таком случае увеличивается вероятность ошибки второго рода — нулевая гипотеза может быть принята, хотя на самом деле она не верна. Допустим, например, что H_0 = «распределение нормально»; T(X^m) = «коэффициент асимметрии»; тогда выборка с любым симметричным распределением будет признана нормальной. Чтобы избегать таких ошибок, следует пользоваться более мощными критериями.

Альтернативная методика на основе достигаемого уровня значимости

Широкое распространение методики фиксированного уровня значимости было вызвано сложностью вычисления многих статистических критериев в докомпьютерную эпоху. Чаще всего использовались таблицы, в которых для некоторых априорных уровней значимости были выписаны критические значения. В настоящее время результаты проверки гипотез чаще представляют с помощью достигаемого уровня значимости.

Достигаемый уровень значимости (пи-величина, англ. p-value) — это наименьшая величина уровня значимости, при которой нулевая гипотеза отвергается для данного значения статистики критерия T:

p(T) = \min \{ \alpha:\: T\in\Omega_\alpha \},

где \Omega_\alpha — критическая область критерия.

Другая интерпретация: достигаемый уровень значимости p(T) — это вероятность при справедливости нулевой гипотезы получить значение статистики, такое же или ещё более экстремальное, чем T.

Если достигаемый уровень значимости достаточно мал (близок к нулю), то нулевая гипотеза отвергается. В частности, его можно сравнивать с фиксированным уровнем значимости; тогда альтернативная методика будет эквивалентна классической.

Типы критической области

Обозначим через t_\alpha значение, которое находится из уравнения F(t_\alpha) = \alpha, где F(t) = \mathbb{P}\left\{ T<t \right\} — функция распределения статистики T. Если функция распределения непрерывная строго монотонная, то t_\alpha есть обратная к ней функция:

t_\alpha = F^{-1}(\alpha).

Значение t_\alpha называется также \alpha-квантилем распределения F(t).

На практике, как правило, используются статистики T с унимодальной (имеющей форму пика) плотностью распределения. Критические области (наименее вероятные значения статистики) соответствуют «хвостам» этого распределения. Поэтому чаще всего возникают критические области одного из трёх типов:

  • Левосторонняя критическая область:
определяется интервалом \Omega_\alpha = (-\infty,\, t_\alpha).
пи-величина: p(T) = F(T).
  • Правосторонняя критическая область:
определяется интервалом \Omega_\alpha = (t_{1-\alpha},\,+\infty).
пи-величина: p(T) = 1-F(T).
  • Двусторонняя критическая область:
определяется двумя интервалами \Omega_\alpha = (-\infty,\, t_{\alpha/2}) \cup (t_{1-\alpha/2},\,+\infty);
пи-величина: p(T) = \min \left\{ 2F(T),\; 2(1-F(T)) \right\}.

Ошибки первого и второго рода

  • Ошибка первого рода или «ложная тревога» (англ. type I error, \alpha error, false positive) — когда нулевая гипотеза отвергается, хотя на самом деле она верна. Вероятность ошибки первого рода:
\alpha = \mathbb{P}\left\{ T\in\Omega_\alpha | H_0 \right\}.
  • Ошибка второго рода или «пропуск цели» (англ. type II error, \beta error, false negative) — когда нулевая гипотеза принимается, хотя на самом деле она не верна. Вероятность ошибки второго рода:
\beta(H_1) = \mathbb{P}\left\{ T\notin\Omega_\alpha | H_1 \right\}.
  Верная гипотеза
 H_0   H_1 
Результат
 применения 
критерия
 H_0  H_0 верно принята H_0 неверно принята 
(Ошибка второго рода)
 H_1  H_0 неверно отвергнута 
(Ошибка первого рода)
H_0 верно отвергнута

Свойства статистических критериев

Мощность критерия: 1 - \beta(H) = \mathbb{P}\left\{ T\in\Omega_\alpha | H \right\} — вероятность отклонить гипотезу H_0, если на самом деле верна альтернативная гипотеза H. Мощность критерия является числовой функцией от альтернативной гипотезы H.

Несмещённый критерий: 1-\beta(H) \geq \alpha для всех альтернатив H или, что то же самое, \mathbb{P}\left\{ T\in\Omega_\alpha | H \right\} \geq \mathbb{P}\left\{ T\in\Omega_\alpha | H_0 \right\} для всех альтернатив H.

Состоятельный критерий: \beta(H) \to 0 при m\to\infty для всех альтернатив H.

Равномерно более мощный критерий. Говорят, что критерий с мощностью 1-\beta(H) является равномерно более мощным, чем критерий с мощностью 1-\beta'(H), если выполняются два условия:

  1. \beta(H_0) = \beta'(H_0);
  2. \beta(H_1) \leq \beta'(H_1) для всех рассматриваемых альтернатив H_1\neq H_0, причём хотя бы для одной альтернативы неравенство строгое.

Типы статистических гипотез

  • Простая гипотеза однозначно определяет функцию распределения на множестве X. Простые гипотезы имеют узкую область применения, ограниченную критериями согласия (см. ниже). Для простых гипотез известен общий вид равномерно более мощного критерия (Теорема Неймана-Пирсона).
  • Сложная гипотеза утверждает принадлежность распределения к некоторому множеству распределений на X. Для сложных гипотез вывести равномерно более мощный критерий удаётся лишь в некоторых специальных случаях.

Типы статистических критериев

В зависимости от проверяемой нулевой гипотезы статистические критерии делятся на группы, перечисленные ниже по разделам.

Наряду с нулевой гипотезой, которая принимается или отвергается по результату анализа выборки, статистические критерии могут опираться на дополнительные предположения, которые априори предпологаются выполненными.

  • Параметрические критерии предполагают, что выборка порождена распределением из заданного параметрического семейства. В частности, существует много критериев, предназначенных для анализа выборок из нормального распределения. Преимущество этих критериев в том, что они более мощные. Если выборка действительно удовлетворяет дополнительным предположениям, то параметрические критерии дают более точные результаты. Однако если выборка им не удовлетворяет, то вероятность ошибок (как I, так и II рода) может резко возрасти. Прежде чем применять такие критерии, необходимо убедиться, что выборка удовлетворяет дополнительным предположениям. Гипотезы о виде распределения проверяются с помощью критериев согласия.
  • Непараметрические критерии не опираются на дополнительные предположения о распределении. В частности, к этому типу критериев относится большинство ранговых критериев.

Критерии согласия

Критерии согласия проверяют, согласуется ли заданная выборка с заданным фиксированным распределением, с заданным параметрическим семейством распределений, или с другой выборкой.

Критерии сдвига

Специальный случай двухвыборочных критериев согласия. Проверяется гипотеза сдвига, согласно которой распределения двух выборок имеют одинаковую форму и отличаются только сдвигом на константу.

Критерии нормальности

Критерии нормальности — это выделенный частный случай критериев согласия. Нормально распределённые величины часто встречаются в прикладных задачах, что обусловлено действием закона больших чисел. Если про выборки заранее известно, что они подчиняются нормальному распределению, то к ним становится возможно применять более мощные параметрические критерии. Проверка нормальность часто выполняется на первом шаге анализа выборки, чтобы решить, использовать далее параметрические методы или непараметрические. В справочнике А. И. Кобзаря приведена сравнительная таблица мощности для 21 критерия нормальности.

Критерии однородности

Критерии однородности предназначены для проверки нулевой гипотезы о том, что две выборки (или несколько) взяты из одного распределения, либо их распределения имеют одинаковые значения математического ожидания, дисперсии, или других параметров.

Критерии симметричности

Критерии симметричности позволяют проверить симметричность распределения.

Критерии тренда, стационарности и случайности

Критерии тренда и случайности предназначены для проверки нулевой гипотезы об отсутствии зависимости между выборочными данными и номером наблюдения в выборке. Они часто применяются в анализе временных рядов, в частности, при анализе регрессионных остатков.

Критерии выбросов

Критерии дисперсионного анализа

Критерии корреляционного анализа

Критерии регрессионного анализа

Литература

  1. Вероятность и математическая статистика: Энциклопедия / Под ред. Ю.В.Прохорова. — М.: Большая российская энциклопедия, 2003. — 912 с.
  2. Кобзарь А. И. Прикладная математическая статистика. Справочник для инженеров и научных работников. — М.: Физматлит, 2006. — 816 с.

Ссылки