Курс "Нейронные сети и глубокое обучение" Самарского Университета
You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
 
 
Artem Nikonorov 431307a255
Update README.md
4 years ago
lab_1 Update assignment1.ipynb 4 years ago
LICENSE Initial commit 4 years ago
README.md Update README.md 4 years ago

README.md

Курс "Нейронные сети и глубокое обучение" Самарского Университета

Лектор Артем Владимирович Никоноров, д.т.н., artniko@gmail.com
Ассистент Виктория Витальевна Евдокимова, аспирант Самарского Университета, data.science.sbj@gmail.com

Курс основывается на предыдущих более обзорных лекциях и туториалах по глубокому обучению и его приложениях, в частности, вот небольшая обзорная лекция в Кавказком Математическом Центре. Также во многом этот курс является адаптацией известнейшего курса http://cs231n.stanford.edu/

Предварительный график проведения курса.

Первая лекция в 14-30 МСК 14.09.2020 в Zoom.
Сссылка для доступа
https://us02web.zoom.us/j/8366671872?pwd=WWh1TXZxbjdxcWgrTjlUdVlSdk5kUT09
Идентификатор конференции: 836 667 1872
Код доступа: 755845

Телеграмм группа курса: https://t.me/DL_SamU_2020

Предположительно, лекции будут вестись по две в две недели по понедельникам. Возможен переход на одну пару еженедельно.

Предварительный лекционный план.

План может менятся в процессе курса.

Лекция 1. Классификация, основанная на данных
Введение в курс.
Задача классификации изображений.
Подходы основанные на данных.
Линейная классификация и knn-классификатор.

Лекция 2. Функции потерь и оптимизация.
Мультиклассовый SVM и его функция потерь.
Софтмакс и мультимодальная логистическая регрессия.
Оптимизация функции потерь.
Стохастический градиентный спуск.

Лекция 3. Нейронные сети и обратное распространение ошибки.
Алгоритм обратного распространения ошибки.
Многослойный перцептрон.
Классификация с точки зрения нейронной сети.

Лекция 4. Сверточные сети (СНС).
История.
Основные операции СНС.
Применение СНС вне задач машинного зрения.

Лекция 5. Инструментарий глубокого обучения.
CPU vs GPU vs TPU.
Пакеты глубокого обучения, Tensorflow, Keras и другие.
Вычислительные графы СНС.

Лекция 6. Обучение СНС, часть 1.
Активационные функции, обработка данных сетью.
Пакетная нормализация и другие трюки.
Transfer learning.

Лекция 7. Обучение СНС, часть 2.
Политики обновления гиперпараметров.
Тюнинг процесса обучения. Аугментация данных.

Лекция 8. Архитектуры СНС
Базовые архитектуры - AlexNet, VGG, GoogleNet, ResNet, UNET и другие.

Лекция 9. Генеративные и рекуррентные модели
RNN/LSTM.
Механизм attention. Обработка естественного языка. GAN сети.

Лекция 10. Прикладные сценарии использования СНС
TBD.

Лекция 11. Перспективы развития ИИ
TBD.

Предварительный план лабораторных работ.

План может менятся в процессе курса.

Л.Р. 1
kNN, многоклассовый SVM, SoftMax.
Материалы к лабораторной.

Л.Р. 2
Двухслойная сеть.

Л.Р. 3
Многослойный перцептрон, обратное распространение ошибки, сверточные сети.

Л.Р. 4
Использование различных архитектуры СНС в Tensorflow/Keras.

Л.Р. 5
Решение прикладной задачи с применением СНС.