# Курс "Нейронные сети и глубокое обучение" Самарского Университета Лектор Артем Владимирович Никоноров, д.т.н., artniko@gmail.com Ассистент Виктория Витальевна Евдокимова, аспирант Самарского Университета, data.science.sbj@gmail.com Курс основывается на предыдущих более обзорных лекциях и туториалах по глубокому обучению и его приложениях, в частности, вот [небольшая обзорная лекция](https://youtu.be/Gpq1PFUee88) в Кавказком Математическом Центре. Также во многом этот курс является адаптацией известнейшего курса http://cs231n.stanford.edu/ ## Предварительный график проведения курса. **Первая лекция в 14-30 МСК 14.09.2020 в Zoom.** **Сссылка для доступа** https://us02web.zoom.us/j/8366671872?pwd=WWh1TXZxbjdxcWgrTjlUdVlSdk5kUT09 Идентификатор конференции: 836 667 1872 Код доступа: 755845 Телеграмм группа курса: https://t.me/DL_SamU_2020 Предположительно, лекции будут вестись по две в две недели по понедельникам. Возможен переход на одну пару еженедельно. ## Предварительный лекционный план. План может менятся в процессе курса. **Лекция 1. Классификация, основанная на данных** Введение в курс. Задача классификации изображений. Подходы основанные на данных. Линейная классификация и knn-классификатор. **Лекция 2. Функции потерь и оптимизация.** Мультиклассовый SVM и его функция потерь. Софтмакс и мультимодальная логистическая регрессия. Оптимизация функции потерь. Стохастический градиентный спуск. **Лекция 3. Нейронные сети и обратное распространение ошибки.** Алгоритм обратного распространения ошибки. Многослойный перцептрон. Классификация с точки зрения нейронной сети. **Лекция 4. Сверточные сети (СНС).** История. Основные операции СНС. Применение СНС вне задач машинного зрения. **Лекция 5. Инструментарий глубокого обучения.** CPU vs GPU vs TPU. Пакеты глубокого обучения, Tensorflow, Keras и другие. Вычислительные графы СНС. **Лекция 6. Обучение СНС, часть 1.** Активационные функции, обработка данных сетью. Пакетная нормализация и другие трюки. Transfer learning. **Лекция 7. Обучение СНС, часть 2.** Политики обновления гиперпараметров. Тюнинг процесса обучения. Аугментация данных. **Лекция 8. Архитектуры СНС** Базовые архитектуры - AlexNet, VGG, GoogleNet, ResNet, UNET и другие. **Лекция 9. Генеративные и рекуррентные модели** RNN/LSTM. Механизм attention. Обработка естественного языка. GAN сети. **Лекция 10. Прикладные сценарии использования СНС** TBD. **Лекция 11. Перспективы развития ИИ** TBD. ## Предварительный план лабораторных работ. План может менятся в процессе курса. **Л.Р. 1** kNN, многоклассовый SVM, SoftMax. [Материалы к лабораторной](https://github.com/da0c/DL_Course_SamU/tree/master/lab_1). **Л.Р. 2** Двухслойная сеть. **Л.Р. 3** Многослойный перцептрон, обратное распространение ошибки, сверточные сети. **Л.Р. 4** Использование различных архитектуры СНС в Tensorflow/Keras. **Л.Р. 5** Решение прикладной задачи с применением СНС.