# К у р с "Нейронные сети и глубокое обучение" Самарского Университета
Лектор Артем Владимирович Никоноров, д.т.н., artniko@gmail.com
Ассистент Виктория Витальевна Евдокимова, аспирант Самарского Университета, data.science.sbj@gmail.com
К у р с основывается на предыдущих более обзорных лекциях и туториалах по глубокому обучению и е г о приложениях, в частности, вот [небольшая обзорная лекция ](https://youtu.be/Gpq1PFUee88 ) в Кавказском Математическом Центре. Также во многом этот курс является адаптацией известнейшего курса http://cs231n.stanford.edu/
## Предварительный график проведения курса.
**Шестая лекция в 14-30 М С К (15-30 по Самаре) 23.11.2020 в Zoom.**
Ссылка будет позже.
Телеграмм группа курса:
https://t.me/DL_SamU_2020
Предположительно, лекции будут вестись раз в две недели по понедельникам.
Продолжительность лекции два астрономических часа.
[Видеозапись первой лекции ](https://www.youtube.com/watch?v=BKG1wEATYOU )
## Предварительный лекционный план.
План может меняться в процессе курса.
**Лекция 1. Классификация, основанная на данных**
[Видеозапись лекции 14.09.2020 ](https://www.youtube.com/watch?v=BKG1wEATYOU )
Введение в курс.
Задача классификации изображений.
Подходы основанные на данных.
Линейная классификация и knn-классификатор.
[Презентация к лекции 1 ](https://github.com/da0c/DL_Course_SamU/blob/master/lections/Lection_1_ImClass.pdf )
**Лекция 2. Функции потерь и оптимизация.**
[Видеозапись лекции 28.09.2020 ](https://www.youtube.com/watch?v=3uOIqTNclPA )
Мультиклассовый SVM и е г о функция потерь.
Софтмакс и мультимодальная логистическая регрессия.
Оптимизация функции потерь.
Стохастический градиентный спуск (SGD).
[Презентация к лекции 2 ](https://github.com/da0c/DL_Course_SamU/blob/master/lections/Lection_1_SGD.pdf )
**Лекция 3. Нейронные сети и обратное распространение ошибки.**
[Видеозапись лекции 28.09.2020 ](https://www.youtube.com/watch?v=3uOIqTNclPA )
Классификация с точки зрения нейронной сети.
Многослойный перцептрон.
Представление сети в виде вычислительного графа.
Алгоритм обратного распространения ошибки на вычислительном графе.
[Презентация к лекции 3 ](https://github.com/da0c/DL_Course_SamU/blob/master/lections/Lection_1_BP.pdf )
**Лекция 4. Сверточные сети (С Н С ).**
История.
Основные операции С Н С .
Применение С Н С вне задач машинного зрения.
[Презентация к лекции 4 ](https://github.com/da0c/DL_Course_SamU/blob/master/lections/Lecture_4_CNN1.pdf )
**Лекция 5. Инструментарий глубокого обучения.**
[Видеозапись лекции 30.10.2020 ](https://www.youtube.com/watch?v=E0F11tV92sU&feature=youtu.be )
CPU vs GPU vs TPU.
Пакеты глубокого обучения, Tensorflow, Keras и другие.
Вычислительные графы С Н С .
**Лекция 6. Обучение С Н С , часть 1.**
Активационные функции, обработка данных сетью.
Пакетная нормализация и другие трюки.
Transfer learning.
**Лекция 7. Обучение С Н С , часть 2.**
Политики обновления гиперпараметров.
Тюнинг процесса обучения.
Аугментация данных.
**Лекция 8. Архитектуры С Н С **
Базовые архитектуры - AlexNet, VGG, GoogleNet, ResNet, UNET и другие.
**Лекция 9. Генеративные и рекуррентные модели**
RNN/LSTM.
Механизм attention.
Обработка естественного языка.
GAN сети.
**Лекция 10. Прикладные сценарии использования С Н С **
TBD.
**Лекция 11. Перспективы развития ИИ**
TBD.
## Предварительный план лабораторных работ.
План может меняться в процессе курса.
**Л.Р . 1**
kNN, многоклассовый SVM, SoftMax.
[Материалы к лабораторной ](https://github.com/da0c/DL_Course_SamU/blob/master/lab_1-2/assignment1.ipynb ).
**Л.Р . 2**
Двухслойная сеть.
[Материалы к лабораторной ](https://github.com/da0c/DL_Course_SamU/blob/master/lab_1-2/assignment2.ipynb ).
**Л.Р . 3**
Многослойный перцептрон, обратное распространение ошибки, сверточные сети.
[Материалы к лабораторной ](https://github.com/da0c/DL_Course_SamU/blob/master/lab_3/assignment3.ipynb ).
**Л.Р . 4**
Использование библиотеки Tensorflow для обучения С Н С .
[Материалы к лабораторной ](https://github.com/da0c/DL_Course_SamU/blob/master/lab_4/assignment4.ipynb ).
**Л.Р . 5**
Решение прикладной задачи с применением С Н С .
## Литература и дополнительные источнки
1. Отличная книга на русском по глубокому обучению -
[С . И. Николенко, А . Кадурин, Е . В . Архангельская, Глубокое обучение. Погружение в мир нейронных сетей. 2018 ](https://www.ozon.ru/context/detail/id/154415719/ )
2. Отличная книга по техническим аспектам реализации на Python -
[Шолле Франсуа, Глубокое обучение на Python ](https://www.ozon.ru/context/detail/id/145615583/ )
3. [Лекционный курс К .В . Воронцова по машинному обучению ](http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_%28%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2%29 ).
4. [Видеолекция академика Ю.И. Журавлева ](https://www.youtube.com/watch?v=R3CMqrrIWOk ) о б истоках машинного обучения в С С С Р и о сочетании эвристики и науки в распознавании образов.
5. Видеолекции С .И. Николенко по GAN сетям [1 ](https://www.youtube.com/watch?v=SlJgPIOlpiI ), [2 ](https://www.youtube.com/watch?v=w38m5mTrG_M&t=1147s ).
Хорошая проерка ваших знаний, на выходе из настоящего курса вы полностью понимать то, что говорится в этих лекциях по GAN.