MachineLearning:Вниманию участников
Материал из MachineLearning.
 (→Возник вот форумный вопрос...)  | 
			|||
| Строка 7: | Строка 7: | ||
Насколько я понимаю, если верно соотношение: <tex>|P_i-P^*_i| < \epsilon_\alpha</tex> (для всех i), при уровне справедливости <tex>1-\alpha</tex>, где <tex>P*_i</tex> — оценка вероятностей на конкретных данных (то есть, другими словами, есть доверительный интервал для оценок вероятностей), то:  | Насколько я понимаю, если верно соотношение: <tex>|P_i-P^*_i| < \epsilon_\alpha</tex> (для всех i), при уровне справедливости <tex>1-\alpha</tex>, где <tex>P*_i</tex> — оценка вероятностей на конкретных данных (то есть, другими словами, есть доверительный интервал для оценок вероятностей), то:  | ||
| - | <tex>|V(P1, P)-V*(P1, P*)| < \delta1_\alpha</tex> и <tex>|V(P2, P)-V^*(  | + | <tex>|V(P1, P)-V*(P1, P*)| < \delta1_\alpha</tex> и <tex>|V(P2, P)-V^*(P2, P^*)| < \delta2_\alpha</tex>, а значит:  | 
P1 лучше P2 в смысле функционала V на уровне справедливости <tex>1-\alpha</tex>, если  | P1 лучше P2 в смысле функционала V на уровне справедливости <tex>1-\alpha</tex>, если  | ||
<tex>\sup_{P: \alpha}{V(P1, P)} < \inf_{P: \alpha}{V(P2, P)}</tex>.  | <tex>\sup_{P: \alpha}{V(P1, P)} < \inf_{P: \alpha}{V(P2, P)}</tex>.  | ||
| Строка 20: | Строка 20: | ||
#Кажется, в формуле <tex>|V(P2, P)-V^*(P1, P^*)| < \delta2_\alpha</tex> имелось в виду <tex>V^*(P2, P^*)</tex>?  | #Кажется, в формуле <tex>|V(P2, P)-V^*(P1, P^*)| < \delta2_\alpha</tex> имелось в виду <tex>V^*(P2, P^*)</tex>?  | ||
#Этому вопросу здесь не место (см. шапку этой страницы). Лучше написать мне письмо — ''[[Участник:Vokov|К.В.Воронцов]] 15:43, 25 мая 2008 (MSD)''.  | #Этому вопросу здесь не место (см. шапку этой страницы). Лучше написать мне письмо — ''[[Участник:Vokov|К.В.Воронцов]] 15:43, 25 мая 2008 (MSD)''.  | ||
| + | ;Ответ[2]:  | ||
| + | # <tex>V^*</tex> - функция V, в которую входят значения с *; <tex>P:\alpha</tex> - множество допустимых значений вероятностей на уровне <tex>\alpha</tex>; <tex>\epsilon_\alpha</tex> - максимальное допустимое отклонение от оценки вероятности на уровне <tex>\alpha</tex>; <tex>\delta1_\alpha</tex>, <tex>\delta2_\alpha</tex> - максимальное допустимое отклонение функционалов на уровне <tex>\alpha</tex>.  | ||
| + | # Всегда путаю, что обзывается этим уровнем - мощность критического множества или дополнительного к критическому - посему использовал "уровень справедливости" (мощность множества: множество = все_множество - критическое_множество).  | ||
| + | # Такая функция напрямую следует из задачи.  | ||
| + | # Да, там действительно была очепятка (должна быть такая же формула, что и для <tex>P1</tex>).  | ||
| + | # А где место?... :)  | ||
| + | # Спасибо за комментарий.  | ||
== ИНС ==  | == ИНС ==  | ||
Версия 09:41, 26 мая 2008
На этой странице любой участник может оставить сообщение с целью привлечения внимания других участников проекта к любым вопросам связанным с развитием, наполнением, структурой Ресурса.
Страница предназначена для обсуждения вопросов, касающихся всего проекта или его крупных частей, либо привлечения внимания участников к какой-то важной проблеме.
Вопросы, касающиеся предметов конкретных статей следует обсуждать на страницах обсуждения этих статей.
Содержание | 
Возник вот форумный вопрос...
Допустим требуется выбрать одну лучшую из двух дискретных функций распределения вероятностей  и 
 согласно функционалу качества:
, где 
 — истинные значения вероятностей.
Насколько я понимаю, если верно соотношение:  (для всех i), при уровне справедливости 
, где 
 — оценка вероятностей на конкретных данных (то есть, другими словами, есть доверительный интервал для оценок вероятностей), то:
 и 
, а значит:
P1 лучше P2 в смысле функционала V на уровне справедливости 
, если
.
И, аналогично, P2 лучше P1 в смысле функционала V на уровне справедливости 
, если
.
Верно ли такое утверждение и как построить доверительные интервалы для вероятности для частотной оценки вероятностей?
| ADY 14:45, 23 мая 2008 (MSD)
- Ответ
 
- Понять вопрос затруднительно: не ясно, что такое 
,
,
,
,
.
 - Уровень значимости, а не справедливости.
 - Почему именно такая функция качества, а не какая-либо стандартная: Колмогорова-Смирнова, Кульбака-Лейблера, хи-квадрат?
 - Кажется, в формуле 
имелось в виду
?
 - Этому вопросу здесь не место (см. шапку этой страницы). Лучше написать мне письмо — К.В.Воронцов 15:43, 25 мая 2008 (MSD).
 
- Ответ[2]
 
-  
- функция V, в которую входят значения с *;
- множество допустимых значений вероятностей на уровне
;
- максимальное допустимое отклонение от оценки вероятности на уровне
;
,
- максимальное допустимое отклонение функционалов на уровне
.
 - Всегда путаю, что обзывается этим уровнем - мощность критического множества или дополнительного к критическому - посему использовал "уровень справедливости" (мощность множества: множество = все_множество - критическое_множество).
 - Такая функция напрямую следует из задачи.
 -  Да, там действительно была очепятка (должна быть такая же формула, что и для 
).
 - А где место?... :)
 - Спасибо за комментарий.
 
ИНС
Добрый день, я только что зарегистрировался, и меня интересует следующий вопрос: считаете ли Вы тему Нейронных сетей частью Машиного обучения, и соответственно являются ли ИНС подтемой данного проекта ? SergeyJ 03:58, 20 апреля 2008 (MSD)
Нашел, что вроде интересует, закинул к Вам свою статью написанную в Википедии Персептрон ... SergeyJ 04:15, 20 апреля 2008 (MSD)
Да, конечно, считаем! Пока Ресурс в стадии становления, и ещё не всё категории созданы. За статью спасибо! — теперь нам есть, что дорабатывать ;) Кстати, рекомендую поскорее обзавестись личной страничкой — всегда приятно знакомиться с коллегами по ФИО, а не по нику | К.В.Воронцов 02:33, 21 апреля 2008 (MSD)
Комментарии по улучшению ресурса
- Большое значение имели бы введения в предмет для людей, не знакомых с MachineLearning (например, для людей с математическим образованием).
 - Хорошо было бы разделять возможности и варианты использования MachineLearning алгоритмов от их «внутренней кухни». Это важно для того, чтобы как можно большее число людей смогли бы воспользоваться современными результатами в этой области.
 - Хорошо было бы включить еще ссылки на ключевые разделы мат.статистики, поскольку многие выводы из MachineLearning должны следовать от туда :) (это даже не призыв к действию, это просто мысли в слух… Матстатистика дает фундамент для построения объективных оценок, с понятными свойствами. Статистическое интерпретация полученных результатов помогает людям, плохо знакомым с MachineLearning, понять суть получаемых результатов). | ADY 16:56, 18 апреля 2008 (MSD)
 
Ответы | К.В.Воронцов 23:06, 17 апреля 2008 (MSD):
- Да, конечно.
 - Да, хорошо бы. Статьи, выполняющие эту функцию, будем складывать в категорию Категория:Популярные и обзорные статьи. Есть идея написать большую общую популярную статью, фактически обзор по всему сайту, в которую (по мере создания подробных статей) добавлять краткие ссылки, с указанием, какие методы и подходы, для каких задач нужны, и что важно, а что нет на практике. Большие тематические категории тоже должны сопровождаться такими статьями, пример:
 - Да, хорошо бы. Для этого заготовлена категория Категория:Прикладная статистика.
 
Контент создаётся всем сообществом, и не сразу. Чем скорее сообщество MachineLearning.ru воспримет девиз «разобрался сам — объясни всем!», тем скорее появятся хорошие статьи, в том числе популярные.
Требования к системе управления библиографическими данными
Перенес в обсуждение страницы по библиографиям | Yury Chekhovich 17:24, 24 марта 2008 (MSK)
Изменение переменной Название проекта
По решению участников изменена переменная Название проекта с Распознавание, классификация, прогноз на MachineLearning. Часть ссылок исправилась автоматически. Часть переделываем руками. Возможно что-то упустили. Обо всех найденных «битых» ссылках в пространтсво имён «Распознавание, классификация, прогноз» пишите сюда. | Yury Chekhovich 23:41, 2 марта 2008 (MSK)
Начало работы
Появилась страница Вниманию участников, предназначенная для общения участников. | Yury Chekhovich 13:18, 29 февраля 2008 (MSK)

