Update README.md

patch-1
Artem Nikonorov 2 months ago committed by GitHub
parent 11f719fe0f
commit ddb3eea102
No known key found for this signature in database
GPG Key ID: B5690EEEBB952194

@ -34,14 +34,15 @@ https://t.me/+Ce9a_zQqPTI5MTJi
## Лекционный план 2024
**Часть первая. Введение в глубокое обучение.**
**Часть первая. Вводные лекции, в том числе для самостоятельного изучения.**
**Лекции 1,2. Классификация, основанная на данных**
**Лекции 1. Введение в искусственные нейронные сети.**
Введение в курс.
Задача классификации изображений.
Введение в курс и краткая история вопроса.
Примеры решения задач на базе искусственных нейронных сетей.
Подходы основанные на данных.
Основные идеи - От MLP до CNN.
Задачи технического зрения и предиктивной диагностики БАС.
**Дополнительный материал:** Основные идеи - От MLP до CNN.
[Видеозапись первой части](https://youtu.be/pruCadZdhmQ)
[Видеозапись второй части](https://youtu.be/bsdpRfQM-O8)
@ -51,7 +52,7 @@ https://t.me/+Ce9a_zQqPTI5MTJi
**Часть вторая. Основы глубокого обучения.**
**Лекция 3. Функции потерь и оптимизация.**
**Лекция 2. Основы построения и применения искусственных нейронных сетей. Математическая формализация нейросетевого подхода.**
Мультиклассовый SVM и его функция потерь.
Софтмакс и мультимодальная логистическая регрессия.
@ -63,7 +64,7 @@ https://t.me/+Ce9a_zQqPTI5MTJi
[Презентация к лекции 3](https://github.com/kvvik/DL_Course_SamU/blob/master/Lectures/Lecture_3_SGD_22.pdf)
[Python-ноутбук к лекции 3](https://github.com/kvvik/DL_Course_SamU/blob/master/Lectures/Lecture_3.ipynb)
**Лекция 4. Нейронные сети и обратное распространение ошибки.**
**Лекция 3. Обучение нейронных сетей на основе обратного распространения ошибки.**
Классификация с точки зрения нейронной сети.
Многослойный перцептрон.
@ -76,15 +77,16 @@ https://t.me/+Ce9a_zQqPTI5MTJi
[Презентация к лекции 4](https://github.com/kvvik/DL_Course_SamU/blob/master/Lectures/lecture_4_BP_22.pdf)
**Лекция 5. Сверточные сети (СНС).**
**Лекция 4. Сверточные нейронные сети (СНС).**
История.
Основные операции СНС.
Применение СНС для решения задач технического зрения и предиктивной диагностики БАС.
Применение СНС вне задач машинного зрения.
Разбор задач к самостоятельной: расчет выхода сверточной сети.
[Презентация к лекции 5](https://github.com/kvvik/DL_Course_SamU/blob/master/Lectures/Lecture_5_CNN_22.pdf)
**Лекция 6. Инструментарий глубокого обучения.**
**Лекция 5. Инструментарий глубокого обучения.**
CPU vs GPU vs TPU.
Пакеты глубокого обучения, Tensorflow, Keras и другие.
Вычислительные графы СНС.
@ -98,7 +100,7 @@ CPU vs GPU vs TPU.
Три задачи из лекций 2-5.
**Внимание:** участие в самостоятельной, как и сдача лабораторных, необходимое условие для допуска к экзамену.
**Лекция 7. Обучение СНС, часть 1.**
**Лекция 6.1. Обучение СНС, часть 1.**
Активационные функции, обработка данных сетью.
Пакетная нормализация и другие трюки.
@ -109,20 +111,21 @@ Transfer learning.
[Презентация к лекции 7](https://github.com/kvvik/DL_Course_SamU/blob/master/Lectures/lecture_7_Training1_22.pdf)
**Лекция 8. Обучение СНС, часть 2.**
**Лекция 6.2. Обучение СНС, часть 2.**
Политики обновления гиперпараметров.
Тюнинг процесса обучения.
Аугментация данных.
Вопросы регуляризации и аугментации данных.
[Видеозапись восьмой лекции](https://youtu.be/X77_BhagkJ0)
[Презентация к лекции 8](https://github.com/kvvik/DL_Course_SamU/blob/master/Lectures/lecture_8_Training2_22.pdf)
**Лекция 9. Архитектуры СНС**
**Лекция 7. Базовые архитектуры СНС**
Базовые архитектуры - AlexNet, VGG, GoogleNet, ResNet, UNET и другие.
Основные архитектуры для решения задач технического зрения и предиктивной аналитики БАС.
[Видеозапись девятой лекции](https://youtu.be/ihkqOdUQsmo)
@ -132,14 +135,20 @@ Transfer learning.
**Часть третья. Дополнительные главы**
**Лекция 10. Трансформерные архитектуры**
**Лекция 8. Трансформерные архитектуры**
Сети-трансформеры.
Механизм внимания.
ViT-модели.
Применение в задачах технического зрения, анализа видео, интеллектуальной эксплуатации технических систем в том числе БАС.
[Видеозапись десятой лекции](https://youtu.be/LjZxH6jGk-E)
[Презентация к лекции 10](https://github.com/kvvik/DL_Course_SamU/blob/master/Lectures/lecture_10_Transfomers_22.pdf)
**Самостоятельное изучение**
**Лекция 11. Генеративные и рекуррентные модели**
@ -147,15 +156,16 @@ Transfer learning.
Механизм attention.
Обработка естественного языка.
2. GAN сети.
2. GAN сети и другие генеративные порходы.
3. Детектирование и сегментация.
**Лекция 12. SOTA модели**
Трансформеры
Zero shot подходы
Метаобучение
Федеративное обучение
Zero shot подходы.
Метаобучение.
Федеративное обучение.
Диффузные модели и мосты Шредингера.

Loading…
Cancel
Save