|
|
|
@ -62,7 +62,7 @@ https://us02web.zoom.us/j/8366671872?pwd=NS9ZaXNWWG55Y0pESUZIZHlRa0U5dz09
|
|
|
|
|
[Презентация к лекции 3](https://github.com/kvvik/DL_Course_SamU/blob/master/Lectures/Lecture_3_SGD_22.pdf)
|
|
|
|
|
[Python-ноутбук к лекции 3](https://github.com/kvvik/DL_Course_SamU/blob/master/Lectures/Lecture_3.ipynb)
|
|
|
|
|
|
|
|
|
|
**Лекция 3. Нейронные сети и обратное распространение ошибки.**
|
|
|
|
|
**Лекция 4. Нейронные сети и обратное распространение ошибки.**
|
|
|
|
|
|
|
|
|
|
Классификация с точки зрения нейронной сети.
|
|
|
|
|
Многослойный перцептрон.
|
|
|
|
@ -72,13 +72,13 @@ https://us02web.zoom.us/j/8366671872?pwd=NS9ZaXNWWG55Y0pESUZIZHlRa0U5dz09
|
|
|
|
|
|
|
|
|
|
[Презентация к лекции 4](https://github.com/kvvik/DL_Course_SamU/blob/master/Lectures/lecture_4_BP_22.pdf)
|
|
|
|
|
|
|
|
|
|
**Лекция 4. Сверточные сети (СНС).**
|
|
|
|
|
**Лекция 5. Сверточные сети (СНС).**
|
|
|
|
|
История.
|
|
|
|
|
Основные операции СНС.
|
|
|
|
|
Применение СНС вне задач машинного зрения.
|
|
|
|
|
Разбор задач к самостоятельной: расчет выхода сверточной сети.
|
|
|
|
|
|
|
|
|
|
**Лекция 5. Инструментарий глубокого обучения.**
|
|
|
|
|
**Лекция 6. Инструментарий глубокого обучения.**
|
|
|
|
|
CPU vs GPU vs TPU.
|
|
|
|
|
Пакеты глубокого обучения, Tensorflow, Keras и другие.
|
|
|
|
|
Вычислительные графы СНС.
|
|
|
|
@ -88,26 +88,26 @@ CPU vs GPU vs TPU.
|
|
|
|
|
Три задачи из лекций 2-5.
|
|
|
|
|
**Внимание:** участие в самостоятельной, как и сдача лабораторных, необходимое условие для допуска к экзамену.
|
|
|
|
|
|
|
|
|
|
**Лекция 6. Обучение СНС, часть 1.**
|
|
|
|
|
**Лекция 7. Обучение СНС, часть 1.**
|
|
|
|
|
|
|
|
|
|
Активационные функции, обработка данных сетью.
|
|
|
|
|
Пакетная нормализация и другие трюки.
|
|
|
|
|
Transfer learning.
|
|
|
|
|
|
|
|
|
|
**Лекция 7. Обучение СНС, часть 2.**
|
|
|
|
|
**Лекция 8. Обучение СНС, часть 2.**
|
|
|
|
|
|
|
|
|
|
Политики обновления гиперпараметров.
|
|
|
|
|
Тюнинг процесса обучения.
|
|
|
|
|
Аугментация данных.
|
|
|
|
|
|
|
|
|
|
**Лекция 8. Архитектуры СНС**
|
|
|
|
|
**Лекция 9. Архитектуры СНС**
|
|
|
|
|
|
|
|
|
|
Базовые архитектуры - AlexNet, VGG, GoogleNet, ResNet, UNET и другие.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
**Часть третья. Дополнительные главы**
|
|
|
|
|
|
|
|
|
|
**Лекция 9. Генеративные и рекуррентные модели**
|
|
|
|
|
**Лекция 10. Генеративные и рекуррентные модели**
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1. RNN/LSTM.
|
|
|
|
@ -118,7 +118,7 @@ Transfer learning.
|
|
|
|
|
|
|
|
|
|
3. Детектирование и сегментация.
|
|
|
|
|
|
|
|
|
|
**Лекция 10. SOTA модели**
|
|
|
|
|
**Лекция 11. SOTA модели**
|
|
|
|
|
Трансформеры
|
|
|
|
|
Zero shot подходы
|
|
|
|
|
Метаобучение
|
|
|
|
|