Машинное обучение (курс лекций, К.В.Воронцов)
Материал из MachineLearning.
 (SG + LR)  | 
				 (→См. также)  | 
			||
| Строка 360: | Строка 360: | ||
= См. также =  | = См. также =  | ||
| + | * [https://yadi.sk/d/qdwIwITJoymSa Машинное обучение (семинары,ФУПМ МФТИ)]  | ||
* [[Машинное обучение (семинары, ВМК МГУ)]]  | * [[Машинное обучение (семинары, ВМК МГУ)]]  | ||
* [[Машинное обучение (курс лекций, Н.Ю.Золотых)]]  | * [[Машинное обучение (курс лекций, Н.Ю.Золотых)]]  | ||
Версия 13:38, 3 марта 2016
Теория обучения машин (machine learning, машинное обучение) находится на стыке прикладной статистики, численных методов оптимизации, дискретного анализа, и за последние 50 лет оформилась в самостоятельную математическую дисциплину. Методы машинного обучения составляют основу ещё более молодой дисциплины — интеллектуального анализа данных (data mining).
В курсе рассматриваются основные задачи обучения по прецедентам: классификация, кластеризация, регрессия, понижение размерности. Изучаются методы их решения, как классические, так и новые, созданные за последние 10–15 лет. Упор делается на глубокое понимание математических основ, взаимосвязей, достоинств и ограничений рассматриваемых методов. Отдельные теоремы приводятся с доказательствами.
Все методы излагаются по единой схеме:
- исходные идеи и эвристики;
 - их формализация и математическая теория;
 - описание алгоритма в виде слабо формализованного псевдокода;
 - анализ достоинств, недостатков и границ применимости;
 - пути устранения недостатков;
 - сравнение с другими методами.
 - примеры прикладных задач.
 
Данный курс расширяет и углубляет набор тем, рекомендованный международным стандартом ACM/IEEE Computing Curricula 2001 по дисциплине «Машинное обучение и нейронные сети» (machine learning and neural networks) в разделе «Интеллектуальные системы» (intelligent systems).
Курс читается
- студентам 3 курса кафедры «Интеллектуальные системы / интеллектуальный анализ данных» ФУПМ МФТИ с 2004 года;
 - студентам 3 курса кафедры «Математические методы прогнозирования» ВМиК МГУ с 2007 года;
 - студентам Школы анализа данных Яндекса с 2009 года.
 
На материал данного курса опираются последующие кафедральные курсы. На кафедре ММП ВМиК МГУ параллельно с данным курсом и в дополнение к нему читается спецкурс Теория надёжности обучения по прецедентам, посвящённый проблемам переобучения и оценивания обобщающей способности.
От студентов требуются знания курсов линейной алгебры, математического анализа, теории вероятностей. Знание математической статистики, методов оптимизации и какого-либо языка программирования желательно, но не обязательно.
Ниже представлена расширенная программа — в полном объёме она занимает больше, чем могут вместить в себя два семестра. Каждый параграф приблизительно соответствует одной лекции. Курсивом выделен дополнительный материал, который может разбираться на семинарах.
Замечания для студентов
- Видеолекции ШАД Яндекс.
 - На подстранице имеется перечень вопросов к устному экзамену. Очень помогает при подготовке к устному экзамену!
 - О найденных ошибках и опечатках сообщайте мне. — К.В.Воронцов 18:24, 19 января 2009 (MSK)
 - Материал, который есть в pdf-тексте, но не рассказывался на лекциях, обычно не входит в программу экзамена.
 
Первый семестр
Текст лекций: (PDF, 3 МБ) — обновление 4.10.2011.
Основные понятия и примеры прикладных задач
Презентация: (PDF, 1,4 МБ) — обновление 09.02.2016.
- Постановка задач обучения по прецедентам. Объекты и признаки. Типы шкал: бинарные, номинальные, порядковые, количественные.
 - Типы задач: классификация, регрессия, прогнозирование, ранжирование.
 - Основные понятия: модель алгоритмов, метод обучения, функция потерь и функционал качества, принцип минимизации эмпирического риска, обобщающая способность, скользящий контроль.
 - Линейные модели регрессии и классификации. Метод наименьших квадратов. Полиномиальная регрессия.
 - Примеры прикладных задач.
 - Методика экспериментального исследования и сравнения алгоритмов на модельных и реальных данных.
 - Конкурсы по анализу данных kaggle.com. Полигон алгоритмов классификации.
 - CRISP-DM — межотраслевой стандарт ведения проектов интеллектуального анализа данных.
 
Метрические методы классификации и регрессии
Презентация: (PDF, 3,0 МБ) — обновление 18.02.2016.
- Гипотезы компактности и непрерывности.
 - Обобщённый метрический классификатор.
 - Метод ближайших соседей kNN и его обобщения. Подбор числа k по критерию скользящего контроля.
 - Метод окна Парзена с постоянной и переменной шириной окна.
 - Метод потенциальных функций и его связь с линейной моделью классификации.
 - Непараметрическая регрессия. Локально взвешенный метод наименьших квадратов. Ядерное сглаживание.
 - Оценка Надарая-Ватсона с постоянной и переменной шириной окна. Выбор функции ядра.
 - Задача отсева выбросов. Робастная непараметрическая регрессия. Алгоритм LOWESS.
 - Задача отбора эталонов. Понятие отступа. Алгоритм СТОЛП.
 - Задача отбора признаков. Жадный алгоритм построения метрики.
 
Логические методы классификации
Текст лекций: (PDF, 625 КБ).
Презентация: (PDF, 1.8 МБ)  — обновление 25.02.2016.
- Понятие логической закономерности.
 - Параметрические семейства закономерностей: конъюнкции пороговых правил, синдромные правила, шары, гиперплоскости.
 - Переборные алгоритмы синтеза конъюнкций: стохастический локальный поиск, стабилизация, редукция.
 - Двухкритериальный отбор информативных закономерностей, парето-оптимальный фронт в (p,n)-пространстве.
 - Решающее дерево. Жадная нисходящая стратегия «разделяй и властвуй». Алгоритм ID3. Недостатки жадной стратегии и способы их устранения. Проблема переобучения.
 - Вывод критериев ветвления. Мера нечистоты (impurity) распределения. Энтропийный критерий, критерий Джини.
 - Редукция решающих деревьев: предредукция и постредукция. Алгоритм C4.5.
 - Деревья регрессии. Алгоритм CART.
 - Небрежные решающие деревья (oblivious decision tree).
 - Решающий лес. Случайный лес (Random Forest).
 
Факультатив
- Статистический критерий информативности, точный тест Фишера. Сравнение областей эвристических и статистических закономерностей. Асимптотическая эквивалентность статистического и энтропийного критерия информативности. Разнообразие критериев информативности в (p,n)-пространстве.
 - Решающий пень. Бинаризация признаков. Алгоритм разбиения области значений признака на информативные зоны.
 - Решающий список. Жадный алгоритм синтеза списка.
 - Преобразование решающего дерева в решающий список.
 
Градиентные методы обучения
Презентация: (PDF, 1,3 МБ) — обновление 03.03.2016.
- Линейный классификатор, модель МакКаллока-Питтса, непрерывные аппроксимации пороговой функции потерь.
 - Метод стохастического градиента SG.
 - Метод стохастического среднего градиента SAG.
 - Частные случаи: адаптивный линейный элемент ADALINE, перcептрон Розенблатта, правило Хэбба.
 - Теорема Новикова о сходимости. Доказательство теоремы Новикова
 - Эвристики: инициализация весов, порядок предъявления объектов, выбор величины градиентного шага, «выбивание» из локальных минимумов.
 - Проблема мультиколлинеарности и переобучения, регуляризация или редукция весов (weight decay).
 - Вероятностная постановка задачи классификации. Принцип максимума правдоподобия. Вероятностная интерпретация регуляризации. Принцип максимума совместного правдоподобия данных и модели.
 - Логистическая регрессия: для двух классов, для многих классов. Регуляризованная логистическая регрессия. Калибровка Платта.
 
Критерии выбора моделей и методы отбора признаков
Текст лекций: (PDF, 330 КБ).
Презентация: (PDF, 1,0 МБ) — обновление 05.03.2015.
- Внутренние и внешние критерии. Эмпирические и аналитические критерии.
 - Скользящий контроль, разновидности эмпирических оценок скользящего контроля. Критерий непротиворечивости.
 - Разновидности аналитических оценок. Регуляризация. Критерий Акаике (AIC). Байесовский информационный критерий (BIC). Оценка Вапника-Червоненкиса.
 - Статистические критерии: коэффициент детерминации, критерий Фишера, анализ регрессионных остатков.
 - Агрегированные и многоступенчатые критерии.
 - Сложность задачи отбора признаков. Полный перебор.
 - Метод добавления и удаления, шаговая регрессия.
 - Поиск в глубину, метод ветвей и границ.
 - Усечённый поиск в ширину, многорядный итерационный алгоритм МГУА.
 - Генетический алгоритм, его сходство с МГУА.
 - Случайный поиск и Случайный поиск с адаптацией (СПА).
 
Метод опорных векторов
Презентация: (PDF, 1,2 МБ) — обновление 16.03.2015.
- Оптимальная разделяющая гиперплоскость. Понятие зазора между классами (margin).
 - Случаи линейной разделимости и отсутствия линейной разделимости. Связь с минимизацией регуляризованного эмпирического риска. Кусочно-линейная функция потерь.
 - Задача квадратичного программирования и двойственная задача. Понятие опорных векторов.
 - Рекомендации по выбору константы C.
 - Функция ядра (kernel functions), спрямляющее пространство, теорема Мерсера.
 - Способы конструктивного построения ядер. Примеры ядер.
 - SVM-регрессия.
 - Регуляризации для отбора признаков: LASSO SVM, Elastic Net SVM, SFM, RFM.
 - Гауссовский и лапласовский регуляризаторы.
 - Метод релевантных векторов RVM
 - Обучение SVM методом активных ограничений. Алгоритм INCAS. Алгоритм SMO.
 - ню-SVM.
 
Многомерная линейная регрессия
Презентация: (PDF, 0,6 MБ) — обновление 09.05.2015.
- Задача регрессии, многомерная линейная регрессия.
 - Метод наименьших квадратов, его вероятностный смысл и геометрический смысл.
 - Сингулярное разложение.
 - Проблемы мультиколлинеарности и переобучения.
 - Регуляризация. Гребневая регрессия через сингулярное разложение.
 - Методы отбора признаков: Лассо Тибширани, Elastic Net, сравнение с гребневой регрессией.
 - Метод главных компонент и декоррелирующее преобразование Карунена-Лоэва, его связь с сингулярным разложением.
 
Нелинейная регрессия
Презентация: (PDF, 0,7 MБ) — обновление 02.04.2015.
- Метод Ньютона-Рафсона, метод Ньютона-Гаусса.
 - Обобщённая аддитивная модель (GAM): метод настройки с возвращениями (backfitting) Хасти-Тибширани.
 - Логистическая регрессия. Метод наименьших квадратов с итерационным взвешиванием (IRLS).
 - Обобщённая линейная модель (GLM). Экспоненциальное семейство распределений.
 - Неквадратичные функции потерь. Метод наименьших модулей. Квантильная регрессия. Пример прикладной задачи: прогнозирование потребительского спроса.
 - Робастная регрессия, функции потерь с горизонтальными асимптотами.
 
Прогнозирование временных рядов
Презентация: (PDF, 0,9 MБ) — обновление 06.04.2015.
- Задача прогнозирования временных рядов. Примеры приложений.
 - Экспоненциальное скользящее среднее. Модель Хольта. Модель Тейла-Вейджа. Модель Хольта-Уинтерса.
 - Адаптивная авторегрессионная модель.
 - Следящий контрольный сигнал. Модель Тригга-Лича.
 - Адаптивная селективная модель. Адаптивная композиция моделей. Адаптация весов с регуляризацией.
 
Байесовская теория классификации
Презентация: (PDF, 1,1 МБ) — обновление 13.04.2015.
- Принцип максимума апостериорной вероятности. Теорема об оптимальности байесовского классификатора.
 - Оценивание плотности распределения: три основных подхода.
 - Наивный байесовский классификатор.
 - Непараметрическое оценивание плотности. Ядерная оценка плотности Парзена-Розенблатта. Одномерный и многомерный случаи.
 - Метод парзеновского окна. Выбор функции ядра. Выбор ширины окна, переменная ширина окна.
 - Параметрическое оценивание плотности. Нормальный дискриминантный анализ.
 - Многомерное нормальное распределение, геометрическая интерпретация. Выборочные оценки параметров многомерного нормального распределения.
 - Матричное дифференцирование. Вывод оценок параметров многомерного нормального распределения.
 - Квадратичный дискриминант. Вид разделяющей поверхности. Подстановочный алгоритм, его недостатки и способы их устранения.
 - Линейный дискриминант Фишера. Связь с методом наименьших квадратов.
 - Проблемы мультиколлинеарности и переобучения. Регуляризация ковариационной матрицы.
 - Параметрический наивный байесовский классификатор.
 - Жадное добавление признаков в линейном дискриминанте, метод редукции размерности Шурыгина.
 - Робастное оценивание. Цензурирование выборки (отсев объектов-выбросов).
 
Логистическая регрессия. Разделение смеси распределений
Презентация: (PDF, 0,8 МБ) — обновление 20.04.2015.
- Гипотеза экспоненциальности функций правдоподобия классов. Теорема о линейности байесовского оптимального классификатора. Оценивание апостериорных вероятностей классов с помощью сигмоидной функции активации.
 - Логистическая регрессия. Принцип максимума правдоподобия и логарифмическая функция потерь.
 - Метод стохастического градиента для логарифмической функции потерь. Сглаженное правило Хэбба.
 - Метод наименьших квадратов с итеративным пересчётом весов (IRLS).
 - Пример прикладной задачи: кредитный скоринг. Бинаризация признаков. Скоринговые карты и оценивание вероятности дефолта. Риск кредитного портфеля банка.
 - Смесь распределений.
 - EM-алгоритм: основная идея, понятие скрытых переменных. Теорема об эквивалентной системе уравнений. ЕМ алгоритм как метод простых итераций.
 - Детали реализации EM-алгоритма. Критерий останова. Выбор начального приближения. Выбор числа компонентов смеси.
 - Стохастический EM-алгоритм.
 - Смесь многомерных нормальных распределений. Сеть радиальных базисных функций (RBF) и применение EM-алгоритма для её настройки.
 - Сопоставление RBF-сети и SVM с гауссовским ядром.
 
Кластеризация
Презентация: (PDF, 1,7 МБ) — обновление 27.04.2015.
- Постановка задачи кластеризации. Примеры прикладных задач. Типы кластерных структур.
 - Статистические алгоритмы: EM-алгоритм и Алгоритм k средних (k-means).
 - Нейронная сеть Кохонена. Конкурентное обучение, стратегии WTA и WTM.
 - Самоорганизующаяся карта Кохонена. Применение для визуального анализа данных. Искусство интерпретации карт Кохонена.
 - Агломеративная кластеризация, Алгоритм Ланса-Вильямса и его частные случаи.
 - Алгоритм построения дендрограммы. Определение числа кластеров.
 - Свойства сжатия/растяжения, монотонности и редуктивности. Псевдокод редуктивной версии алгоритма.
 
Второй семестр
Нейронные сети
Презентация: (PDF, 1,4 МБ) — обновление 13.10.2015.
- Биологический нейрон, модель МакКаллока-Питтса как линейный классификатор. Функции активации.
 - Проблема полноты. Задача исключающего или. Полнота двухслойных сетей в пространстве булевых функций.
 - Теоремы Колмогорова, Стоуна, Горбаня (без доказательства).
 - Алгоритм обратного распространения ошибок.
 - Эвристики: формирование начального приближения, ускорение сходимости, диагональный метод Левенберга-Марквардта. Проблема «паралича» сети.
 - Метод послойной настройки сети.
 - Подбор структуры сети: методы постепенного усложнения сети, оптимальное прореживание нейронных сетей (optimal brain damage).
 
Линейные композиции, бустинг
Текст лекций: (PDF, 1 MБ).
Презентация: (PDF, 0.9 МБ) — обновление 08.09.2015.
- Основные понятия: базовый алгоритм (алгоритмический оператор), корректирующая операция.
 - Взвешенное голосование.
 - Алгоритм AdaBoost. Экспоненциальная аппроксимация пороговой функции потерь. Процесс последовательного обучения базовых алгоритмов. Теорема о сходимости бустинга.
 - Обобщающая способность бустинга.
 - Базовые алгоритмы в бустинге. Решающие пни.
 - Варианты бустинга: GentleBoost, LogitBoost, BrownBoost, и другие.
 - Алгоритм AnyBoost.
 - Градиентный бустинг. Стохастический градиентный бустинг.
 - Простое голосование (комитет большинства). Алгоритм ComBoost. Идентификация нетипичных объектов (выбросов).
 - Преобразование простого голосования во взвешенное.
 - Обобщение на большое число классов.
 - Решающий список (комитет старшинства). Алгоритм обучения. Стратегия выбора классов для базовых алгоритмов.
 
Эвристические, стохастические, нелинейные композиции
Презентация: (PDF, 0.9 МБ) — обновление 08.09.2015.
- Стохастические методы: бэггинг и метод случайных подпространств.
 - Случайный лес. Анализ смещения и вариации для простого голосования.
 - Смесь алгоритмов (квазилинейная композиция), область компетентности, примеры функций компетентности.
 - Выпуклые функции потерь. Методы построения смесей: последовательный и иерархический.
 - Построение смеси алгоритмов с помощью EM-подобного алгоритма.
 - Нелинейная монотонная корректирующая операция. Случай классификации. Случай регрессии. Задача монотонизации выборки, изотонная регрессия.
 
Ранжирование
Презентация: (PDF, 0,5 МБ) — обновление 14.10.2014.
- Постановка задачи обучения ранжированию. Примеры.
 - Признаки в задаче ранжирования поисковой выдачи: текстовые, ссылочные, кликовые. TF-IDF. PageRank.
 - Критерии качества ранжирования: Precision, MAP, AUC, DCG, NDCG, pFound.
 - Ранговая классификация, OC-SVM.
 - Попарный подход: RankingSVM, RankNet, LambdaRank.
 
Поиск ассоциативных правил
Презентация: (PDF, 1.1 МБ) — обновление 20.10.2015.
- Понятие ассоциативного правила и его связь с понятием логической закономерности.
 - Примеры прикладных задач: анализ рыночных корзин, выделение терминов и тематики текстов.
 - Алгоритм APriori. Два этапа: поиск частых наборов и рекурсивное порождение ассоциативных правил. Недостатки и пути усовершенствования алгоритма APriori.
 - Алгоритм FP-growth. Понятия FP-дерева и условного FP-дерева. Два этапа поиска частых наборов в FP-growth: построение FP-дерева и рекурсивное порождение частых наборов.
 - Общее представление о динамических и иерархических методах поиска ассоциативных правил.
 
Задачи с частичным обучением
Презентация: (PDF, 1.0 МБ) — обновление 28.10.2015.
- Постановка задачи Semisupervised Learning, примеры приложений.
 - Простые эвристические методы: self-training, co-training, co-learning.
 - Адаптация алгоритмов кластеризации для решения задач с частичным обучением. Кратчайшиё незамкнутый путь. Алгоритм Ланса-Уильямса. Алгоритм k-средних.
 - Трансдуктивный метод опорных векторов TSVM.
 - Алгоритм Expectation-Regularization на основе многоклассовой регуляризированной логистической регрессии.
 
Коллаборативная фильтрация
Презентация: (PDF, 1.5 МБ) — обновление 13.04.2014.
- Задачи коллаборативной фильтрации, транзакционные данные и матрица субъекты—объекты.
 - Корреляционные методы user-based, item-based. Меры сходства субъектов и объектов.
 - Латентные методы на основе би-кластеризации. Алгоритм Брегмана.
 - Латентные методы на основе матричных разложений. Метод главных компонент для разреженных данных. Метод стохастического градиента.
 - Неотрицательные матричные разложения. Разреженный SVD. Метод чередующихся наименьших квадратов ALS.
 
Тематическое моделирование
Текст лекций: (PDF, 830 КБ).
Презентация 1: (PDF, 2.8 МБ)  — обновление 16.11.2015.
Презентация 2: (PDF, 6.1 МБ)  — обновление 16.11.2015.
- Задача тематического моделирования коллекции текстовых документов.
 - Вероятностный латентный семантический анализ PLSA. Метод максимума правдоподобия. ЕМ-алгоритм.
 - Латентное размещение Дирихле LDA. Метод максимума апостериорной вероятности. Сглаженная частотная оценка условной вероятности.
 - Аддитивная регуляризация тематических моделей. Регуляризованный EM-алгоритм, теорема о стационарной точке (применение условий Каруша–Куна–Таккера).
 - Мультимодальная тематическая модель.
 - Онлайновый EM-алгоритм и его распараллеливание.
 - Регуляризаторы классификации и регрессии.
 - Регуляризаторы разреживания, сглаживания, декоррелирования и отбора тем.
 - Регуляризаторы для темпоральных тематических моделей.
 - Внутренние и внешние критерии качества тематических моделей.
 - Средства визуализации тематических моделей и парадигма разведочного информационного поиска.
 
Обучение с подкреплением
Презентация: (PDF, 0.9 МБ) — обновление 16.11.2015.
- Задача о многоруком бандите. Жадные и эпсилон-жадные стратегии. Метод UCB (upper confidence bound). Стратегия Softmax.
 - Среда для экспериментов.
 - Адаптивные стратегии на основе скользящих средних. Метод сравнения с подкреплением. Метод преследования.
 - Постановка задачи при наличии информации о среде в случае выбора действия. Контекстный многорукий бандит.
 - Линейная регрессионная модель с верхней доверительной оценкой LinUCB.
 - Оценивание новой стратегии по большим историческим данным.
 - Постановка задачи в случае, когда агент влияет на среду. Ценность состояния среды. Ценность действия.
 - Жадные стратегии максимизации ценности. Уравнения оптимальности Беллмана.
 - Метод временных разностей TD(0). Метод SARSA. Метод Q-обучения.
 - Многошаговое TD-прогнозирование. Обобщения методов временных разностей, SARSA, Q-обучения.
 
См. также
- Машинное обучение (семинары,ФУПМ МФТИ)
 - Машинное обучение (семинары, ВМК МГУ)
 - Машинное обучение (курс лекций, Н.Ю.Золотых)
 - Машинное обучение (курс лекций, СГАУ, С.Лисицын)
 
Список подстраниц
| Машинное обучение (курс лекций, К.В.Воронцов)/2009 | Машинное обучение (курс лекций, К.В.Воронцов)/ToDo | Машинное обучение (курс лекций, К.В.Воронцов)/Вопросы | 
| Машинное обучение (курс лекций, К.В.Воронцов)/Семестровый курс | Машинное обучение (курс лекций, К.В.Воронцов)/Форма отчета | 

