Графические модели (курс лекций)
Материал из MachineLearning.
 (→Система выставления оценок по курсу)  | 
				 (→Расписание занятий)  | 
			||
| Строка 20: | Строка 20: | ||
== Расписание занятий ==  | == Расписание занятий ==  | ||
| - | В 2014 году курс читается на факультете [[ВМиК]] МГУ .  | + | В 2014 году курс читается на факультете [[ВМиК]] МГУ по вторникам в ауд. 510, начало в 14-35 (лекция) и 16-20 (семинар).  | 
{| class="standard"  | {| class="standard"  | ||
| - |  !Дата  | + |  !Дата !! № занятия !! Занятие !! Материалы  | 
 |-  |  |-  | ||
| - |  |  | + |  | rowspan=2|11 февраля 2014 || rowspan=2 align="center"|1 || Лекция «Введение в курс. Байесовские рассуждения.» || rowspan=3|[[Media:GM13_1.pdf|Презентация (pdf)]] по байесовским рассуждениям и графическим моделям  | 
 |-  |  |-  | ||
| - | + |  |Семинар «Правила работы с вероятностями, байесовские рассуждения»    | |
 |-  |  |-  | ||
| - |  |  | + |  | rowspan=2|18 февраля 2014 || rowspan=2 align="center"|2 || Лекция «Графические модели: байесовские и марковские сети»   | 
 |-  |  |-  | ||
| - | + |  |Семинар «Фактор-графы, задачи вывода в ГМ, решение практических задач с помощью ГМ» || [[Media:GM_applied_tasks.pdf|Презентация по практическим задачам (pdf)]]  | |
 |-  |  |-  | ||
| - |  |  | + |  | rowspan=2|25 февраля 2014 || rowspan=2 align="center"|3 || Лекция «Алгоритм Belief Propagation (BP) для вывода в ациклических графических моделях. Алгоритм Loopy BP» || [[Media:SMAIS-2011-BP.pdf|Конспект по алгоритмам передачи сообщений (pdf)]]  | 
 |-  |  |-  | ||
| - | + |  |Семинар «Алгоритмы передачи сообщений» ||   | |
 |-  |  |-  | ||
| - |  |  | + |  | rowspan=2|4 марта 2014 || rowspan=2 align="center"|4 || Лекция «Помехоустойчивое кодирование, теорема Шеннона, линейные коды, коды с малой плотностью проверок на чётность» || [http://ru.wikipedia.org/wiki/LDPC LDPC-коды] в Википедии  | 
 |-  |  |-  | ||
| - | + |  |Семинар «Вывод формул для алгоритма декодирования в LDPC-кодах, выдача задания по кодированию» ||   | |
 |-  |  |-  | ||
| - |  |  | + |  | rowspan=2|11 марта 2014 || rowspan=2 align="center"|5 || Лекция «Скрытые марковские модели. Алгоритм сегментации сигнала, обучение с учителем» || [[Media:GM12_3.pdf|Презентация (pdf)]]  | 
 |-  |  |-  | ||
| - | + |  |Семинар «Скрытые марковские модели» ||   | |
 |-  |  |-  | ||
| - |  |  | + |  | rowspan=2|18 марта 2014 || rowspan=2 align="center"|6 || Лекция «ЕМ-алгоритм. Обучение скрытых марковских моделей без учителя.» || [[Media:GM13_em_hmm_unsupervised.pdf|Презентация (pdf)]]  | 
 |-  |  |-  | ||
| - |  |  | + |  |Семинар «Матричные вычисления» || [[Media:Matrix-Gauss.pdf|Конспект по матричным вычислениям и нормальному распределению (pdf)]]  | 
 |-  |  |-  | ||
| - |  |  | + |  | rowspan=2|25 марта 2014 || rowspan=2 align="center"|7 || Лекция «Линейные динамические системы. Фильтр Калмана. Расширенный фильтр Калмана.» || [[Media:LDS.pdf|Конспект по ЛДС (pdf)]]  | 
 |-  |  |-  | ||
| - | + |  |Семинар «Контрольная по матричным вычислениям. ЕМ-алгоритм»  ||   | |
 |-  |  |-  | ||
| - |  |  | + |  | rowspan=2|1 апреля 2014 || rowspan=2 align="center"|8 || Лекция «Алгоритмы на основе разрезов графов, <tex>\alpha</tex>-расширение.»   | 
| - | || [[Media:  | + | || [[Media:Lecture6.pdf| Презентация (pdf)]], [[Media:GM_graphCuts.pdf|Конспект по разрезам графов (pdf)]]  | 
 |-  |  |-  | ||
| - | + |  | Семинар «Алгоритмы разрезов графов» ||  | |
 |-  |  |-  | ||
| - |  |  | + |  | rowspan=2|8 апреля 2014 || rowspan=2 align="center"|9 || Лекция «Алгоритм Tree-ReWeighted Message Passing (TRW) для вывода в циклических графических моделях» || [[Media:TRW.pdf| Конспект по TRW (pdf)]]  | 
 |-  |  |-  | ||
| - | + |  |Семинар «Двойственное разложение» ||  | |
 |-  |  |-  | ||
| - |  |  | + |  |rowspan=2|15 апреля 2014 || rowspan=2 align="center"|10 || Лекция «Структурный метод опорных векторов (SSVM)» || [[Media:SMAIS11_SSVM.pdf|Конспект по SSVM (pdf)]]  | 
 |-  |  |-  | ||
| - |  |  | + |  |Семинар «Структурный метод опорных векторов» ||  | 
 |-  |  |-  | ||
| - |  |  | + |  |rowspan=2|22 апреля 2014 || rowspan=2 align="center"|11 || Лекция «Методы Монте Карло по схеме марковских цепей (MCMC)» || [[Media:MCMC.pdf|Конспект по MCMC (pdf)]]  | 
 |-  |  |-  | ||
| - | + |  |Семинар «Методы MCMC» ||  | |
 |-  |  |-  | ||
| - |  |  | + |  |rowspan=2|29 апреля 2014 || rowspan=2 align="center"|12 || Лекция «Вариационный вывод» || [[Media:Variational_inference.pdf|Конспект по вариационному выводу (pdf)]]  | 
| + |  |-  | ||
| + |  |Семинар «Вариационный вывод» ||  | ||
| + |  |-  | ||
| + |  |rowspan=2|6 мая 2014 || rowspan=2 align="center"|13 || Лекция «Вероятностные методы обучения графических моделей, экспоненциальное семейство распределений» ||  | ||
| + |  |-  | ||
| + |  |Семинар «Экспоненциальное семейство распределений» ||  | ||
| + |  |-  | ||
| + |  |rowspan=2|13 мая 2014 || rowspan=2 align="center"|14 || Лекция «Байесовский подход для выбора графической модели» ||  | ||
| + |  |-  | ||
| + |  |Семинар «Контрольная по вариационному выводу» ||  | ||
 |-  |  |-  | ||
 |}  |  |}  | ||
Версия 14:32, 30 января 2014
|   | Страница курса находится в стадии формирования. | 
| Курс посвящен математическим методам обработки информации, основанных на использовании внутренних взаимосвязей в данных и их последующем анализе. Эти методы широко используются при решении задач из разных прикладных областей, включая обработку изображений и видео, анализ социальных сетей, распознавание речи, машинное обучение. До 2011 года курс читался как спецкурс «Структурные методы анализа изображений и сигналов».
 Целью курса является освоение математического аппарата для работы с графическими моделями. Предполагается, что в результате прохождения курса студенты обретут навыки самостоятельного построения графических моделей для решения задач из различных прикладных областей; будут способны решать задачи настройки параметров графических моделей по данным, определять подходящую структуру графической модели, выбирать методы, наиболее эффективные для работы с построенной моделью; получат опыт применения графических моделей для различных задач анализа изображений, сигналов, сетей.  | 
Лектор: Д.П. Ветров,
Семинарист: А.А. Осокин,
Ассистент: Д.А. Кропотов.
Вопросы и комментарии по курсу можно оставлять на вкладке «Обсуждение» к этой странице или направлять письмом по адресу bayesml@gmail.com. При этом в название письма просьба добавлять [ГМ14].
Расписание занятий
В 2014 году курс читается на факультете ВМиК МГУ по вторникам в ауд. 510, начало в 14-35 (лекция) и 16-20 (семинар).
| Дата | № занятия | Занятие | Материалы | 
|---|---|---|---|
| 11 февраля 2014 | 1 | Лекция «Введение в курс. Байесовские рассуждения.» | Презентация (pdf) по байесовским рассуждениям и графическим моделям | 
| Семинар «Правила работы с вероятностями, байесовские рассуждения» | |||
| 18 февраля 2014 | 2 | Лекция «Графические модели: байесовские и марковские сети» | |
| Семинар «Фактор-графы, задачи вывода в ГМ, решение практических задач с помощью ГМ» | Презентация по практическим задачам (pdf) | ||
| 25 февраля 2014 | 3 | Лекция «Алгоритм Belief Propagation (BP) для вывода в ациклических графических моделях. Алгоритм Loopy BP» | Конспект по алгоритмам передачи сообщений (pdf) | 
| Семинар «Алгоритмы передачи сообщений» | |||
| 4 марта 2014 | 4 | Лекция «Помехоустойчивое кодирование, теорема Шеннона, линейные коды, коды с малой плотностью проверок на чётность» | LDPC-коды в Википедии | 
| Семинар «Вывод формул для алгоритма декодирования в LDPC-кодах, выдача задания по кодированию» | |||
| 11 марта 2014 | 5 | Лекция «Скрытые марковские модели. Алгоритм сегментации сигнала, обучение с учителем» | Презентация (pdf) | 
| Семинар «Скрытые марковские модели» | |||
| 18 марта 2014 | 6 | Лекция «ЕМ-алгоритм. Обучение скрытых марковских моделей без учителя.» | Презентация (pdf) | 
| Семинар «Матричные вычисления» | Конспект по матричным вычислениям и нормальному распределению (pdf) | ||
| 25 марта 2014 | 7 | Лекция «Линейные динамические системы. Фильтр Калмана. Расширенный фильтр Калмана.» | Конспект по ЛДС (pdf) | 
| Семинар «Контрольная по матричным вычислениям. ЕМ-алгоритм» | |||
| 1 апреля 2014 | 8 |  Лекция «Алгоритмы на основе разрезов графов,  | Презентация (pdf), Конспект по разрезам графов (pdf) | 
| Семинар «Алгоритмы разрезов графов» | |||
| 8 апреля 2014 | 9 | Лекция «Алгоритм Tree-ReWeighted Message Passing (TRW) для вывода в циклических графических моделях» | Конспект по TRW (pdf) | 
| Семинар «Двойственное разложение» | |||
| 15 апреля 2014 | 10 | Лекция «Структурный метод опорных векторов (SSVM)» | Конспект по SSVM (pdf) | 
| Семинар «Структурный метод опорных векторов» | |||
| 22 апреля 2014 | 11 | Лекция «Методы Монте Карло по схеме марковских цепей (MCMC)» | Конспект по MCMC (pdf) | 
| Семинар «Методы MCMC» | |||
| 29 апреля 2014 | 12 | Лекция «Вариационный вывод» | Конспект по вариационному выводу (pdf) | 
| Семинар «Вариационный вывод» | |||
| 6 мая 2014 | 13 | Лекция «Вероятностные методы обучения графических моделей, экспоненциальное семейство распределений» | |
| Семинар «Экспоненциальное семейство распределений» | |||
| 13 мая 2014 | 14 | Лекция «Байесовский подход для выбора графической модели» | |
| Семинар «Контрольная по вариационному выводу» | 
Практические задания
Задание 1. «Байесовские рассуждения».
Задание 2. «Алгоритм Loopy Belief Propagation для LDPC-кодов».
Задание 3. «Алгоритмы минимизации энергии для задачи стерео».
Задание 4. «Модель Изинга».
Оценки по курсу
| № п/п | Студент | Практические задания | Сумма | Экзамен | Оценка | |||
|---|---|---|---|---|---|---|---|---|
| №1 | №2 | №3 | №4 | |||||
| 1 | Алешин Илья | |||||||
| 2 | Антипов Алексей | |||||||
| 3 | Арбузова Дарья | |||||||
| 4 | Горелов Алексей | |||||||
| 5 | Зиннурова Эльвира (C) | |||||||
| 6 | Ломов Никита | |||||||
| 7 | Львов Сергей | |||||||
| 8 | Найдин Олег | |||||||
| 9 | Никифоров Андрей | |||||||
| 10 | Новиков Александр | |||||||
| 11 | Петров Григорий | |||||||
| 12 | Подоприхин Дмитрий | |||||||
| 13 | Рыжков Александр | |||||||
| 14 | Сокурский Юрий | |||||||
| 15 | Ульянов Дмитрий | |||||||
| 16 | Харациди Олег | |||||||
| 17 | Шабашев Федор | |||||||
| 18 | Шадриков Андрей | |||||||
Система выставления оценок по курсу
- При наличии несданных заданий максимальная возможная оценка за курс — это «удовлетворительно».
 - Необходимым условием получения положительной оценки за курс является сдача не менее двух практических заданий и сдача устного экзамена не менее чем на оценку «удовлетворительно».
 -  Итоговая оценка вычисляется по формуле 
, где Oral — оценка за устный экзамен (0, 3, 4, 5), HomeWork — баллы, набранные за практические задания (см. таблицу выше), Mark — итоговая оценка по 5-балльной шкале. Нецелые значения округляются в сторону ближайшего целого, превосходящего дробное значение. Максимальный балл за HomeWork равен 20.
 - На экзамене студент может отказаться от оценки и пойти на пересдачу, на которой может заново получить Oral.
 - За каждое несданное задание выставляется минус 10 баллов в баллы по заданиям (допускаются отрицательные значения).
 - Если на экзамене итоговая оценка оказывается ниже трех, то студент отправляется на пересдачу. При этом оценка Oral, полученная на пересдаче, добавляется к положительной (три и выше) оценке Oral, полученной на основном экзамене и т.д. до тех пор, пока студент не наберет на итоговую оценку «удовлетворительно» (для итоговых оценок выше «удовлетворительно» оценки Oral не суммируются).
 - Студент может досдать недостающие практические задания в любое время. При этом проверка задания гарантируется только в том случае, если задание сдано не позднее, чем за неделю до основного экзамена или пересдачи.
 - Штраф за просрочку сдачи заданий начисляется из расчета 0.1 балла в день, но не более 5 баллов.
 - В случае успешной сдачи всех практических заданий студент получает возможность претендовать на итоговую оценку «хорошо» и «отлично». При этом экзамен на оценку Oral может сдаваться до сдачи всех заданий (оценки Oral в этом случае не суммируются).
 - Экзамен на оценку Oral сдается либо в срок основного экзамена, либо в срок официальных пересдач.
 
Литература
- Barber D. Bayesian Reasoning and Machine Learning. Cambridge University Press, 2012.
 - Murphy K.P. Machine Learning: A Probabilistic Perspective. The MIT Press, 2012.
 - Bishop C.M. Pattern Recognition and Machine Learning. Springer, 2006.
 - Mackay D.J.C. Information Theory, Inference, and Learning Algorithms. Cambridge University Press, 2003.
 - Wainwright M.J., Jordan M.I. Graphical Models, Exponential Families, and Variational Inference. Foundations and Trends in Machine Learning, NOWPress, 2008.
 - Koller D., Friedman N. Probabilistic Graphical Models: Principles and Techniques. The MIT Press, 2009.
 - Cowell R.G., Dawid A.P., Lauritzen S.L., Spiegelhalter D.J. Probabilistic networks and expert systems. Berlin: Springer, 1999.
 - Памятка по теории вероятностей
 
Страницы курса прошлых лет
См. также
Курс «Байесовские методы машинного обучения»
Спецсеминар «Байесовские методы машинного обучения»
Математические методы прогнозирования (кафедра ВМиК МГУ)
Онлайн-курс Стэнфордского университета по вероятностным графическим моделям

