Занятия проходят по субботам, 18:00 — 21:00, аудитория R504
Чат в telegram: https://t.me/+5lGiz4-8BuYyMzJi
В курсе предусмотрено несколько форм контроля знания:
- Домашние работы (практика на Python/NumPy и теоретические задачи, ориентировочно три работы)
- Устный экзамен в конце модуля - блокирующий!
Итоговая оценка вычисляется на основе оценки за работу в семестре и оценки за экзамен:
Oитоговая = 0.6 * Одомашние задания + 0.4* Оэкзамен
при условии получения положительной оценки за экзамен (не менее 4 баллов).
Оценка за домашнюю работу вычисляется как среднее по домашним заданиям. К итоговой оценке применяется арифметическое округление.
[Воспросы к экзамену To be done]
Вопросы к экзамену прошлого года
Экзамен будет устный. При подготовке ответа на экзамене разрешается пользоваться любыми материалами. При непосредственном ответе ничем пользоваться нельзя. Просьба обратить внимание на теоретический минимум по курсу — незнание ответов на вопросы теор. минимума автоматически влечёт неудовлетворительную оценку за экзамен. На экзамене дается час на подготовку ответа на билет, после чего вы отвечаете экзаменатору на вопросы из теоретического минимума, рассказываете билет, отвечаете на дополнительные вопросы по курсу и решаете задачи.
У домашнего задания есть два дедлайна: мягкий и жесткий. Жесткий дедлайн обычно через неделю после мягкого. За сдачу после мягкого дедлайна применяется штраф -1 балл за каждый день просрочки. После жесткого дедлайна сдать работу нельзя.
При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам. Это очень строгое правило!
Занятие 1. Введение в байесовские методы. Сопряженные распределения
Приведены материалы прошлого года, по мере необходимости они могут обновляться.
Занятие 1. Введение в байесовские методы. Сопряженные распределения
- Презентация
- Задачи на занятии
- Задание для самостоятельной работы (кроме пункта 6)
Занятие 2. Байесовская линейная регрессия
Занятие 3. Вариационный вывод и байесовские нейронные сети
Занятие 4. Методы Markov Chain Monte Carlo
Занятие 5. Гауссовские процессы и байесовская оптимизация
Занятие 6. Модели с латентными переменными и EM-алгоритм
Занятие 7. Вариационные автокодировщики
- Задание 1. Мягкий дедлайн: 26 сентября 23:59, жесткий дедлайн: 3 октября 23:59.
Книги:
- Barber D. Bayesian Reasoning and Machine Learning. Cambridge University Press, 2012.
- Murphy K.P. Machine Learning: A Probabilistic Perspective. The MIT Press, 2012.
- Bishop C.M. Pattern Recognition and Machine Learning. Springer, 2006.
- Mackay D.J.C. Information Theory, Inference, and Learning Algorithms. Cambridge University Press, 2003.
- Tipping M. Sparse Bayesian Learning. Journal of Machine Learning Research, 1, 2001, pp. 211-244.
- Шумский С.А. Байесова регуляризация обучения. В сб. Лекции по нейроинформатике, часть 2, 2002.
Простые и удобные заметки по матричным вычислениям и свойствам гауссовских распределений.
Памятка по теории вероятностей.