You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

95 lines
4.5 KiB
Markdown

4 years ago
# Курс "Нейронные сети и глубокое обучение" Самарского Университета
4 years ago
Лектор Артем Владимирович Никоноров, д.т.н., artniko@gmail.com
4 years ago
Ассистент Виктория Витальевна Евдокимова, аспирант Самарского Университета, vkutikova94@gmail.com
4 years ago
4 years ago
Курс основывается на предыдущих более обзорных лекциях и туториалах по глубокому обучению и его приложениях, в частности, вот [небольшая обзорная лекция](https://youtu.be/Gpq1PFUee88) в Кавказком Математическом Центре. Также во многом этот курс является адаптацией известнейшего курса http://cs231n.stanford.edu/
## Предварительный график проведения курса.
**Первая лекция в 14-00 МСК 14.09.2020 в Zoom.**
Ссылка будет размещена позднее.
Предположительно, лекции будут вестись по две в две недели по понедельникам.
Возможен переход на одну пару еженедельно.
4 years ago
## Предварительный лекционный план.
План может менятся в процессе курса.
**Лекция 1. Классификация, основанная на данных**
Введение в курс.
Задача классификации изображений.
Подходы основанные на данных.
Линейная классификация и knn-классификатор.
**Лекция 2. Функции потерь и оптимизация.**
Мультиклассовый SVM и его функция потерь.
Софтмакс и мультимодальная логистическая регрессия.
Оптимизация функции потерь.
Стохастический градиентный спуск.
**Лекция 3. Нейронные сети и обратное распространение ошибки.**
Алгоритм обратного распространения ошибки.
Многослойный перцептрон.
Классификация с точки зрения нейронной сети.
**Лекция 4. Сверточные сети (СНС).**
История.
Основные операции СНСС.
Применение СНС вне задач машинного зрения.
**Лекция 5. Инструментарий глубокого обучения.**
CPU vs GPU vs TPU.
Пакеты глубокого обучения, Tensorflow, Keras и другие.
Вычислительные графы СНС.
**Лекция 6. Обучение СНС, часть 1.**
Активационные функции, обработка данных сетью.
Пакетная нормализация и другие трюки.
Transfer learning.
**Лекция 7. Обучение СНС, часть 2.**
Политики обновления гиперпараметров.
Тюнинг процесса обучения.
Аугментация данных.
**Лекция 8. Архитектуры СНС**
Базовые архитектуры - AlexNet, VGG, GoogleNet, ResNet, UNET и другие.
**Лекция 9. Генеративные и рекуррентные модели**
RNN/LSTM.
Механизм attention.
Обработка естественного языка.
GAN сети.
**Лекция 10. Прикладные сценарии использования СНС**
TBD.
**Лекция 11. Перспективы развития ИИ**
TBD.
4 years ago
## Предварительный план лабораторных работ.
План может менятся в процессе курса.
**Л.Р. 1**
kNN, многоклассовый SVM, SoftMax, двухслойная сеть.
**Л.Р. 2**
4 years ago
Многослойный перцептрон, обратное распространение ошибки, сверточные сети.
4 years ago
**Л.Р. 3**
Использование различных архитектуры СНС в Tensorflow/Keras.
**Л.Р. 4**
Решение прикладной задачи с применением СНС.
4 years ago