Машинное обучение (курс лекций, К.В.Воронцов)
Материал из MachineLearning.
Теория обучения машин (machine learning, машинное обучение) находится на стыке прикладной статистики, численных методов оптимизации, дискретного анализа, и за последние 60 лет оформилась в самостоятельную математическую дисциплину. Методы машинного обучения составляют основу ещё более молодой дисциплины — интеллектуального анализа данных (data mining).
В курсе рассматриваются основные задачи обучения по прецедентам: классификация, кластеризация, регрессия, понижение размерности. Изучаются методы их решения, как классические, так и новые, созданные за последние 10–15 лет. Упор делается на глубокое понимание математических основ, взаимосвязей, достоинств и ограничений рассматриваемых методов. Теоремы в основном приводятся без доказательств.
Все методы излагаются по единой схеме:
- исходные идеи и эвристики;
 - их формализация и математическая теория;
 - описание алгоритма в виде слабо формализованного псевдокода;
 - анализ достоинств, недостатков и границ применимости;
 - пути устранения недостатков;
 - сравнение и взаимосвязи с другими методами.
 - примеры прикладных задач.
 
На семинарах разбираются дополнительные примеры, аспекты практического применения, работа с данными, программирование, проведение вычислительных экспериментов.
Данный курс расширяет и углубляет набор тем, рекомендованный международным стандартом ACM/IEEE Computing Curricula 2001 по дисциплине «Машинное обучение и нейронные сети» (machine learning and neural networks) в разделе «Интеллектуальные системы» (intelligent systems).
Курс читается
- студентам 3 курса кафедры «Интеллектуальные системы / интеллектуальный анализ данных» ФУПМ МФТИ с 2004 года;
 - студентам 3 курса кафедры «Математические методы прогнозирования» ВМиК МГУ с 2007 года;
 - студентам Школы анализа данных Яндекса с 2009 года.
 
От студентов требуются знания курсов линейной алгебры, математического анализа, теории вероятностей. Знание математической статистики, методов оптимизации и языка программирования Python желательно, но не обязательно.
Курсивом выделен дополнительный материал, который может разбираться на семинарах.
Замечания для студентов
-  Весной 2022 года курс читается в дистанционном режиме. 
- Ссылка на Zoom для 3-го курса МФТИ Обновлено: 2022-03-10
 - Ссылка на Zoom для 4-го курса МФТИ Обновлено: 2022-02-04
 
 - Ссылка на семинары для студентов МФТИ
 - Видеолекции ШАД Яндекс. Обновлено: 2019 год
 - «Введение в машинное обучение» на Курсэре содержит примерно втрое меньше материала, чем в годовом курсе, представленном на этой странице. Там очень многое упрощено, спрятано, пропущено. Действительно введение.
 - На подстранице имеется перечень вопросов к устному экзамену. Очень помогает при подготовке к устному экзамену!
 - О найденных ошибках и опечатках сообщайте мне. — К.В.Воронцов 18:24, 19 января 2009 (MSK)
 - Материал, который есть в pdf-тексте, но не рассказывался на лекциях, обычно не входит в программу экзамена.
 - Короткая ссылка на эту страницу: bit.ly/ML-Vorontsov.
 
Семестр 1. Математические основы машинного обучения
Текст лекций: (PDF, 3 МБ) — обновление 4.10.2011.
Основные понятия и примеры прикладных задач
Презентация: (PDF, 2,2 МБ) — обновление 04.05.2024. Видеозапись: Лекция Семинар
- Постановка задач обучения по прецедентам. Объекты и признаки. Типы шкал: бинарные, номинальные, порядковые, количественные.
 - Типы задач: классификация, регрессия, прогнозирование, ранжирование.
 - Основные понятия: модель алгоритмов, метод обучения, функция потерь и функционал качества, принцип минимизации эмпирического риска, обобщающая способность, скользящий контроль.
 - Линейные модели регрессии и классификации. Метод наименьших квадратов. Полиномиальная регрессия.
 - Примеры прикладных задач.
 - Методика экспериментального исследования и сравнения алгоритмов на модельных и реальных данных.
 - Конкурсы по анализу данных kaggle.com. Полигон алгоритмов классификации.
 - CRISP-DM — межотраслевой стандарт ведения проектов интеллектуального анализа данных.
 
Линейный классификатор и стохастический градиент
Презентация: (PDF, 1,2 МБ) — обновление 15.02.2024. Видеозапись: Лекция Семинар
- Линейный классификатор, модель МакКаллока-Питтса, непрерывные аппроксимации пороговой функции потерь.
 - Метод стохастического градиента SG.
 - Метод стохастического среднего градиента SAG.
 - Эвристики: инициализация весов, порядок предъявления объектов, выбор величины градиентного шага, «выбивание» из локальных минимумов.
 - Проблема мультиколлинеарности и переобучения, регуляризация или редукция весов (weight decay).
 - Вероятностная постановка задачи классификации. Принцип максимума правдоподобия.
 - Вероятностная интерпретация регуляризации, совместное правдоподобие данных и модели. Принцип максимума апостериорной вероятности.
 - Гауссовский и лапласовский регуляризаторы.
 - Логистическая регрессия. Принцип максимума правдоподобия и логарифмическая функция потерь. Метод стохастического градиента для логарифмической функции потерь. Многоклассовая логистическая регрессия. Регуляризованная логистическая регрессия. Калибровка Платта.
 
Нейронные сети: градиентные методы оптимизации
Презентация: (PDF, 1,4 МБ) — обновление 04.05.2024. Видеозапись: Лекция Семинар
- Биологический нейрон, модель МакКаллока-Питтса как линейный классификатор. Функции активации.
 - Проблема полноты. Задача исключающего или. Полнота двухслойных сетей в пространстве булевых функций.
 - Алгоритм обратного распространения ошибок.
 - Быстрые методы стохастического градиента: Поляка, Нестерова, AdaGrad, RMSProp, AdaDelta, Adam, Nadam, диагональный метод Левенберга-Марквардта.
 - Проблема взрыва градиента и эвристика gradient clipping.
 - Метод случайных отключений нейронов (Dropout). Интерпретации Dropout. Обратный Dropout и L2-регуляризация.
 - Функции активации ReLU и PReLU. Проблема «паралича» сети.
 - Эвристики для формирования начального приближения. Метод послойной настройки сети.
 - Подбор структуры сети: методы постепенного усложнения сети, оптимальное прореживание нейронных сетей (optimal brain damage).
 
Метрические методы классификации и регрессии
Презентация: (PDF, 3,9 МБ) — обновление 04.05.2024. Видеозапись: Лекция Семинар
- Гипотезы компактности и непрерывности.
 - Обобщённый метрический классификатор.
 - Метод ближайших соседей kNN и его обобщения. Подбор числа k по критерию скользящего контроля.
 - Метод окна Парзена с постоянной и переменной шириной окна.
 - Метод потенциальных функций и его связь с линейной моделью классификации.
 - Задача отбора эталонов. Полный скользящий контроль (CCV), формула быстрого вычисления для метода 1NN. Профиль компактности.
 - Отбор эталонных объектов на основе минимизации функционала полного скользящего контроля.
 - Непараметрическая регрессия. Локально взвешенный метод наименьших квадратов. Ядерное сглаживание.
 - Оценка Надарая-Ватсона с постоянной и переменной шириной окна. Выбор функции ядра и ширины окна сглаживания.
 - Задача отсева выбросов. Робастная непараметрическая регрессия. Алгоритм LOWESS.
 
Метод опорных векторов
Презентация: (PDF, 1,3 МБ) — обновление 7.03.2024. Видеозапись: Лекция Семинар
- Оптимальная разделяющая гиперплоскость. Понятие зазора между классами (margin).
 - Случаи линейной разделимости и отсутствия линейной разделимости. Связь с минимизацией регуляризованного эмпирического риска. Кусочно-линейная функция потерь.
 - Задача квадратичного программирования и двойственная задача. Понятие опорных векторов.
 - Рекомендации по выбору константы C.
 - Функция ядра (kernel functions), спрямляющее пространство, теорема Мерсера.
 - Способы конструктивного построения ядер. Примеры ядер.
 - SVM-регрессия.
 - Регуляризации для отбора признаков: LASSO SVM, Elastic Net SVM, SFM, RFM.
 - Метод релевантных векторов RVM
 
Многомерная линейная регрессия
Презентация: (PDF, 1,1 MБ) — обновление 04.05.2024. Видеозапись: Лекция Семинар
- Задача регрессии, многомерная линейная регрессия.
 - Метод наименьших квадратов, его вероятностный смысл и геометрический смысл.
 - Сингулярное разложение.
 - Проблемы мультиколлинеарности и переобучения.
 - Регуляризация. Гребневая регрессия через сингулярное разложение.
 - Методы отбора признаков: Лассо Тибширани, Elastic Net, сравнение с гребневой регрессией.
 - Метод главных компонент и декоррелирующее преобразование Карунена-Лоэва, его связь с сингулярным разложением.
 - Спектральный подход к решению задачи наименьших квадратов.
 - Задачи и методы низкоранговых матричных разложений.
 
Нелинейная регрессия
Презентация: (PDF, 0,8 MБ) — обновление 04.05.2024. Видеозапись: Лекция Семинар
- Метод Ньютона-Рафсона, метод Ньютона-Гаусса.
 - Обобщённая аддитивная модель (GAM): метод настройки с возвращениями (backfitting) Хасти-Тибширани.
 - Логистическая регрессия. Метод наименьших квадратов с итеративным пересчётом весов (IRLS). Пример прикладной задачи: кредитный скоринг. Бинаризация признаков. Скоринговые карты и оценивание вероятности дефолта. Риск кредитного портфеля банка.
 - Обобщённая линейная модель (GLM). Экспоненциальное семейство распределений.
 - Неквадратичные функции потерь. Метод наименьших модулей. Квантильная регрессия. Пример прикладной задачи: прогнозирование потребительского спроса.
 - Робастная регрессия, функции потерь с горизонтальными асимптотами.
 
Качество классификации и отбор признаков
Текст лекций: (PDF, 330 КБ).
Презентация: (PDF, 1,6 МБ) — обновление 04.05.2024.
Видеозапись: Лекция Семинар 
- Критерии качества классификации: чувствительность и специфичность, ROC-кривая и AUC, точность и полнота, AUC-PR.
 - Внутренние и внешние критерии. Эмпирические и аналитические критерии.
 - Скользящий контроль, разновидности эмпирических оценок скользящего контроля. Критерий непротиворечивости.
 - Разновидности аналитических оценок. Регуляризация. Критерий Акаике (AIC). Байесовский информационный критерий (BIC). Оценка Вапника-Червоненкиса.
 - Сложность задачи отбора признаков. Полный перебор.
 - Метод добавления и удаления, шаговая регрессия.
 - Поиск в глубину, метод ветвей и границ.
 - Усечённый поиск в ширину, многорядный итерационный алгоритм МГУА.
 - Генетический алгоритм, его сходство с МГУА.
 - Случайный поиск и Случайный поиск с адаптацией (СПА).
 
Логические методы классификации
Текст лекций: (PDF, 625 КБ).
Презентация: (PDF, 1.3 МБ)  — обновление 04.05.2024.
Видеозапись: Лекция 
Семинар 
- Понятие логической закономерности.
 - Параметрические семейства закономерностей: конъюнкции пороговых правил, синдромные правила, шары, гиперплоскости.
 - Переборные алгоритмы синтеза конъюнкций: стохастический локальный поиск, стабилизация, редукция.
 - Двухкритериальный отбор информативных закономерностей, парето-оптимальный фронт в (p,n)-пространстве.
 - Статистический критерий информативности, точный тест Фишера. Сравнение областей эвристических и статистических закономерностей. Разнообразие критериев информативности в (p,n)-пространстве.
 - Решающее дерево. Жадная нисходящая стратегия «разделяй и властвуй». Алгоритм ID3. Недостатки жадной стратегии и способы их устранения. Проблема переобучения.
 - Вывод критериев ветвления. Мера нечистоты (impurity) распределения. Энтропийный критерий, критерий Джини.
 - Редукция решающих деревьев: предредукция и постредукция. Алгоритм C4.5.
 - Деревья регрессии. Алгоритм CART.
 - Небрежные решающие деревья (oblivious decision tree).
 - Решающий лес. Случайный лес (Random Forest).
 - Решающий пень. Бинаризация признаков. Алгоритм разбиения области значений признака на информативные зоны.
 - Решающий список. Жадный алгоритм синтеза списка. Преобразование решающего дерева в решающий список.
 
Линейные ансамбли
Текст лекций: (PDF, 1 MБ).
Презентация: (PDF, 1.5 МБ) — обновление 04.05.2024.
Видеозапись: Лекция Семинар 
- Основные понятия: базовый алгоритм, корректирующая операция.
 - Простое голосование (комитет большинства).
 - Стохастические методы: бэггинг и метод случайных подпространств.
 - Случайный лес (Random Forest).
 - Взвешенное голосование. Преобразование простого голосования во взвешенное.
 - Алгоритм AdaBoost. Экспоненциальная аппроксимация пороговой функции потерь. Процесс последовательного обучения базовых алгоритмов. Теорема о сходимости бустинга. Идентификация нетипичных объектов (выбросов).
 - Теоретические обоснования. Обобщающая способность бустинга.
 - Базовые алгоритмы в бустинге. Решающие пни.
 - Сравнение бэггинга и бустинга.
 - Алгоритм ComBoost. Обобщение на большое число классов.
 
Продвинутые методы ансамблирования
Презентация: (PDF, 1.5 МБ) — обновление 04.05.2024. Видеозапись: Лекция Семинар
- Виды ансамблей. Теоретические обоснования. Анализ смещения и разброса для простого голосования.
 - Градиентный бустинг. Стохастический градиентный бустинг.
 - Варианты бустинга: регрессия, Алгоритм AnyBoost, GentleBoost, LogitBoost, BrownBoost, и другие.
 - Алгоритм XGBoost.
 - Алгоритм CatBoost. Обработка категориальных признаков.
 - Стэкинг. Линейный стэкинг, взвешенный по признакам.
 - Смесь алгоритмов (квазилинейная композиция), область компетентности, примеры функций компетентности.
 - Выпуклые функции потерь. Методы построения смесей: последовательный и иерархический.
 - Построение смеси алгоритмов с помощью EM-подобного алгоритма.
 
Оценивание плотности и байесовская классификация
Презентация: (PDF, 1,8 МБ) — обновление 04.05.2024. Видеозапись: Лекция Семинар
- Параметрическое оценивание плотности. Многомерное нормальное распределение, геометрическая интерпретация.
 - Выборочные оценки параметров многомерного нормального распределения. Проблемы мультиколлинеарности и переобучения. Регуляризация ковариационной матрицы.
 - Непараметрическое оценивание плотности. Ядерная оценка плотности Парзена-Розенблатта. Одномерный и многомерный случаи.
 - Смесь распределений. EM-алгоритм как метод простых итераций.
 - Байесовская теория классификации. Оптимальный байесовский классификатор.
 - Генеративные и дискриминативные модели классификации.
 - Наивный байесовский классификатор. Линейный наивный байесовский классификатор в случае экспоненциального семейства распределений.
 - Метод парзеновского окна. Выбор функции ядра. Выбор ширины окна, переменная ширина окна.
 - Нормальный дискриминантный анализ. Квадратичный дискриминант. Вид разделяющей поверхности. Подстановочный алгоритм, его недостатки и способы их устранения. Линейный дискриминант Фишера.
 - Смесь многомерных нормальных распределений. Сеть радиальных базисных функций (RBF) и применение EM-алгоритма для её настройки. Сравнение RBF-сети и SVM с гауссовским ядром.
 
Кластеризация и частичное обучение
Презентация: (PDF, 2,3 МБ) — обновление 04.05.2024. Видеозапись: Лекция Семинар
- Постановка задачи кластеризации. Примеры прикладных задач. Типы кластерных структур.
 - Постановка задачи Semisupervised Learning, примеры приложений.
 - Критерии качества кластеризации, коэффициент силуэта, BCubed-меры точности и полноты.
 - Алгоритм k-средних и ЕМ-алгоритм для разделения гауссовской смеси.
 - Алгоритм DBSCAN.
 - Агломеративная кластеризация, Алгоритм Ланса-Вильямса и его частные случаи.
 - Алгоритм построения дендрограммы. Определение числа кластеров.
 - Свойства сжатия/растяжения и монотонности.
 - Простые эвристические методы частичного обучения: self-training, co-training, co-learning.
 - Трансдуктивный метод опорных векторов TSVM.
 - Алгоритм Expectation-Regularization на основе многоклассовой регуляризированной логистической регрессии.
 
Детекция аномалий и робастные методы
Презентация: (PDF, 1.8 МБ) — обновление 04.05.2024.
- Задачи выявления аномалий. Эвристические методы выявления аномалий. Алгоритм LOWESS.
 - Теория робастного обучения. Схема итерационного перевзвешивания объектов IRS.
 - Семейство робастных агрегирующих функций.
 - Итерационное перевзвешивание для произвольной агрегирующей функции. Алгоритм IR-ERM.
 - Робастная регрессия. Робастная классификация. Робастная кластеризация.
 - Выявление аномалий с помощью одноклассового SVM.
 - Парадигмы обучения PU-Learning, One-Class Classification, Open-Set Recognition, Open-World Recognition.
 
Семестр 2. Прикладные модели машинного обучения
Глубокие нейронные сети
Презентация: (PDF, 4,3 МБ) — обновление 12.02.2023. Видеозапись: Лекция Семинар
- Обоснования глубоких нейронных сетей: выразительные возможности, скорость сходимости при избыточной параметризации.
 - Свёрточные нейронные сети (CNN) для изображений. Свёрточный нейрон. Pooling нейрон. Выборка размеченных изображений ImageNet.
 - ResNet: остаточная нейронная сеть (residual NN). Сквозные связи между слоями (skip connection).
 - Свёрточные сети для сигналов, текстов, графов, игр.
 - Рекуррентные нейронные сети (RNN). Обучение рекуррентных сетей: Backpropagation Through Time (BPTT).
 - Сети долгой кратковременной памяти (Long short-term memory, LSTM).
 - Рекуррентные сети Gated Recurrent Unit (GRU) и Simple Recurrent Unit (SRU).
 
Нейронные сети с обучением без учителя
Презентация: (PDF, 2,3 МБ) — обновление 17.02.2023. Видеозапись: Лекция Семинар
- Нейронная сеть Кохонена. Конкурентное обучение, стратегии WTA и WTM.
 - Самоорганизующаяся карта Кохонена. Применение для визуального анализа данных. Искусство интерпретации карт Кохонена.
 - Автокодировщик. Линейный AE, SAE, DAE, CAE, RAE, VAE, AE для классификации, многослойный AE.
 - Пред-обучение нейронных сетей (pre-training).
 - Перенос обучения (transfer learning).
 - Многозадачное обучение (multi-task learning).
 - Самостоятельное обучение (self-supervised learning).
 - Дистилляция моделей или суррогатное моделирование.
 - Обучение с использованием привилегированной информации (learning using priveleged information, LUPI).
 - Генеративные состязательные сети (generative adversarial net, GAN).
 
Векторные представления текстов и графов
Презентация: (PDF, 1,0 МБ) — обновление 3.03.2023. Видеозапись: Лекция Семинар
- Векторные представления текста. Гипотеза дистрибутивной семантики.
 - Модели CBOW и SGNS из программы word2vec. Иерархический SoftMax.
 - Модель FastText.
 - Векторные представления графов.
 - Многомерное шкалирование (multidimensional scaling, MDS).
 - Векторное представление соседства (stochastic neighbor embedding, SNE и tSNE).
 - Матричные разложения (graph factorization).
 - Модели случайных блужданий DeepWalk, node2vec.
 - Обобщённый автокодировщик на графах GraphEDM.
 - Представление о графовых нейронных сетях (graph neural network, GNN). Передача сообщений по графу (message passing).
 
Модели внимания и трансформеры
Презентация: (PDF, 1,1 МБ) — обновление 10.03.2023. Видеозапись: Лекция Семинар
- Задачи обработки и преобразования последовательностей (sequence to sequence).
 - Рекуррентная сеть с моделью внимания.
 - Разновидности моделей внимания: многомерное, иерархическое, Query–Key–Value, внутреннее (self-attention).
 - Модели внимания на графах (Graph Attention Network). Задача классификации вершин графа.
 - Трансформеры. Особенности архитектуры кодировщика и декодировщка.
 - Критерии обучения и оценивание качества (предобучение). Модель BERT.
 - Прикладные задачи: машинный перевод, аннотирование изображений.
 - Модели внимания и трансформеры для текстов, изображений, графов.
 
Тематическое моделирование
Презентация: (PDF, 3.6 МБ) — обновление 17.03.2023. Видеозапись: Лекция Семинар
- Задача тематического моделирования коллекции текстовых документов. Метод максимума правдоподобия.
 - Лемма о максимизации гладкой функции на симплексах (применение условий Каруша–Куна–Таккера).
 - Аддитивная регуляризация тематических моделей. Регуляризованный EM-алгоритм, теорема о стационарной точке. Элементарная интерпретация EM-алгоритма.
 - Вероятностный латентный семантический анализ PLSA. ЕМ-алгоритм.
 - Латентное размещение Дирихле LDA. Метод максимума апостериорной вероятности. Сглаженная частотная оценка условной вероятности. Небайесовская интерпретация LDA.
 - Регуляризаторы разреживания, сглаживания, частичного обучения, декоррелирования.
 - Мультимодальная тематическая модель. Мультиязычная тематическая модель.
 - Регуляризаторы классификации и регрессии.
 - Модель битермов WNTM. Модель связанных документов. Иерархическая тематическая модель.
 - Внутренние и внешние критерии качества тематических моделей.
 
Обучение ранжированию
Презентация: (PDF, 0,8 МБ) — обновление 6.04.2023. Видеозапись: Лекция Семинар
- Постановка задачи обучения ранжированию. Примеры.
 - Поточечные методы Ранговая регрессия. Ранговая классификация, OC-SVM.
 - Попарные методы: RankingSVM, RankNet, LambdaRank.
 - Списочные методы.
 - Признаки в задаче ранжирования поисковой выдачи: текстовые, ссылочные, кликовые. TF-IDF, Okapi BM25, PageRank.
 - Критерии качества ранжирования: Precision, MAP, AUC, DCG, NDCG, pFound.
 - Глубокая структурированная семантическая модель DSSM (Deep Structured Semantic Model).
 
Рекомендательные системы
Презентация: (PDF, 0.8 МБ) — обновление 6.04.2023. Видеозапись: Лекция Семинар
- Задачи коллаборативной фильтрации, транзакционные данные.
 - Корреляционные методы user-based, item-based. Задача восстановления пропущенных значений. Меры сходства.
 - Разреженная линейная модель (Sparse LInear Method, SLIM).
 - Латентные методы на основе матричных разложений. Метод главных компонент для разреженных данных (LFM, Latent Factor Model). Метод стохастического градиента.
 - Неотрицательные матричные разложения NNMF. Метод чередующихся наименьших квадратов ALS. Вероятностный латентный семантический анализ PLSA.
 - Модель с учётом неявной информации (implicit feedback).
 - Автокодировщики для коллаборативной фильтрации.
 - Учёт дополнительных признаковых данных в матричных разложениях и автокодировщиках.
 - Линейная и квадратичная регрессионные модели, libFM.
 - Гиперграфовая транзакционная тематическая модель для учёта дополнительных данных.
 - Измерение качества рекомендаций. Меры разнообразия (diversity), новизны (novelty), покрытия (coverage), догадливости (serendipity).
 
Поиск ассоциативных правил
Презентация: (PDF, 1.3 МБ) — обновление 6.04.2023. Видеозапись: Лекция Семинар
- Понятие ассоциативного правила и его связь с понятием логической закономерности.
 - Примеры прикладных задач: анализ рыночных корзин, выделение терминов и тематики текстов.
 - Алгоритм APriori. Два этапа: поиск частых наборов и рекурсивное порождение ассоциативных правил. Недостатки и пути усовершенствования алгоритма APriori.
 - Алгоритм FP-growth. Понятия FP-дерева и условного FP-дерева. Два этапа поиска частых наборов в FP-growth: построение FP-дерева и рекурсивное порождение частых наборов.
 - Общее представление о динамических и иерархических методах поиска ассоциативных правил.
 
Адаптивные методы прогнозирования
Презентация: (PDF, 0,9 MБ) — обновление 14.12.2019. Видеозапись: Лекция Семинар Видеозапись лекции Евгения Рябенко
- Задача прогнозирования временных рядов. Примеры приложений.
 - Экспоненциальное скользящее среднее. Модель Хольта. Модель Тейла-Вейджа. Модель Хольта-Уинтерса.
 - Адаптивная авторегрессионная модель.
 - Следящий контрольный сигнал. Модель Тригга-Лича.
 - Адаптивная селективная модель. Адаптивная композиция моделей.
 - Локальная адаптация весов с регуляризацией.
 
Инкрементное и онлайновое обучение
Презентация: (PDF, 0,9 MБ) — обновление 19.04.2021. Видеозапись: Лекция [ Семинар]
- Задачи инкрементного и онлайнового обучения. Оценивание инкрементного обучения. Кривые обучения.
 - Ленивое обучение (метрические и непараметрические методы). Онлайновый отбор эталонных объектов.
 - Онлайновый наивный байесовский классификатор.
 - Онлайновый градиентный спуск OGD. Алгоритм Perceptron. Алгоритм Passive-Aggressive.
 - Рекуррентный метод наименьших квадратов RLS.
 - Инкрементные решающие деревья ID5R.
 - Онлайновое обучение ансамбля. Алгоритм Hedge, его свойства и интерпретация в задаче портфельного инвестирования.
 - Онлайновое глубокое обучение. Алгоритм Hedge BackProp.
 - Онлайновое обучение новым классам. Проблема катастрофического забывания. Алгоритм iCaRL.
 
Обучение с подкреплением
Презентация: (PDF, 1.1 МБ) — обновление 27.04.2023. Видеозапись: Лекция Семинар
- Задача о многоруком бандите. Жадные и эпсилон-жадные стратегии. Метод UCB (upper confidence bound).
 - Адаптивные стратегии на основе скользящих средних. Метод сравнения с подкреплением. Метод преследования.
 - Постановка задачи в случае, когда агент влияет на среду. Ценность состояния среды. Ценность действия.
 - Жадные стратегии максимизации ценности. Уравнения оптимальности Беллмана.
 - Метод SARSA. Метод Q-обучения. Типизация методов на on-policy и off-policy.
 - Глубокое Q-обучение нейронной сети DQN на примере обучения играм Atari.
 - Градиентная оптимизация стратегии (policy gradient). Связь с максимизацией log-правдоподобия.
 - Модели актор-критик. Модели с непрерывным управлением.
 - Постановка задачи при моделировании среды. Типизация методов на model-free и model-based.
 - Контекстный многорукий бандит. Линейная регрессионная модель с верхней доверительной оценкой LinUCB.
 - Оценивание новой стратегии по большим историческим данным, сформированным при старых стратегиях.
 
Активное обучение
Презентация: (PDF, 2.3 МБ) — обновление 26.04.2024. Видеозапись: Лекция Семинар
- Постановка задачи машинного обучения. Основные стратегии: отбор объектов из выборки и из потока, синтез объектов. Приложения активного обучения.
 - Почему активное обучение быстрее пассивного. Оценивание качества активного обучения. Кривые обучения.
 - Сэмплирование по неуверенности.
 - Сэмплирование по несогласию в комитете. Сокращение пространства решений.
 - Сэмплирование по ожидаемому изменению модели.
 - Сэмплирование по ожидаемому сокращению ошибки.
 - Синтез объектов методами безградиентной оптимизации. Метод Нелдера-Мида.
 - Синтез объектов по критерию сокращения дисперсии.
 - Взвешивание по плотности.
 - Введение изучающих действий в стратегию активного обучении. Алгоритмы ε-active и EG-active.
 - Использование активного обучения в краудсорсинге. Согласование оценок аннотаторов. Назначение заданий аннотаторам.
 
Интерпретируемость и объяснимость
Презентация: (PDF, 3.5 МБ) — обновление 12.05.2023.
- Интерпретируемость и объяснимость — цели, задачи, основные понятия
 - Интерпретируемые модели машинного обучения
 - Оценки значимости признаков в линейной регрессии
 - Графики частичной зависимости (Partial Dependence Plot, PDP)
 - Графики индивидуальных условных зависимостей (ICE)
 - Перестановочные оценки значимости признаков
 - Вектор Шепли (из теории кооперативных игр), его свойства, способы оценивания, применение в линейной регрессии
 - Суррогатное моделирование в окрестности объекта.
 - Метод LIME (Local Interpretable Model-agnostic Explanations)
 - Метод якорей (Anchors)
 - Метод SHAP (SHapley Additive exPlanations)
 - Метод Shapley Kernel
 - Метод SAGE (Shapley Additive Global importancE)
 - Вектор Шепли для объектов, метод Gradient Shapley
 - Контрфактическое объяснение, метод поиска контрфактов (Counterfactual explanations)
 
Заключительная лекция
Презентация: (PDF, 3.9 МБ) — обновление 4.05.2021. Видеозапись: Лекция
Обзор курса. Постановки оптимизационных задач в машинном обучении.
См. также
- Курс «Введение в машинное обучение», К.В.Воронцов (ВШЭ и Яндекс).Хабр об этом курсе.
 - Специализация «Машинное обучение и анализ данных» (МФТИ и Яндекс). Хабр об этом курсе.
 - Машинное обучение (семинары,ФУПМ МФТИ)
 - Машинное обучение (семинары, ВМК МГУ)
 - Машинное обучение (курс лекций, Н.Ю.Золотых)
 - Машинное обучение (курс лекций, СГАУ, С.Лисицын)
 
Литература
- Hastie T., Tibshirani R., Friedman J. The Elements of Statistical Learning. Springer, 2014. — 739 p.
 - Bishop C. M. Pattern Recognition and Machine Learning. — Springer, 2006. — 738 p.
 - Мерков А. Б. Распознавание образов. Введение в методы статистического обучения. 2011. 256 с.
 - Мерков А. Б. Распознавание образов. Построение и обучение вероятностных моделей. 2014. 238 с.
 - Коэльо Л.П., Ричарт В. Построение систем машинного обучения на языке Python. 2016. 302 с.
 
Список подстраниц
| Машинное обучение (курс лекций, К.В.Воронцов)/2009 | Машинное обучение (курс лекций, К.В.Воронцов)/ToDo | Машинное обучение (курс лекций, К.В.Воронцов)/Вопросы | 
| Машинное обучение (курс лекций, К.В.Воронцов)/Семестровый курс | Машинное обучение (курс лекций, К.В.Воронцов)/Форма отчета | 

