|
|
|
@ -56,9 +56,10 @@ https://us02web.zoom.us/j/8366671872?pwd=NS9ZaXNWWG55Y0pESUZIZHlRa0U5dz09
|
|
|
|
|
Софтмакс и мультимодальная логистическая регрессия.
|
|
|
|
|
Оптимизация функции потерь.
|
|
|
|
|
Стохастический градиентный спуск (SGD).
|
|
|
|
|
Разбор задач к самостоятельной: фукции потерь для SVM и софтмакса.
|
|
|
|
|
|
|
|
|
|
[Видеозапись третьей лекции](https://youtu.be/9nUzJxCeKIc)
|
|
|
|
|
[Презентация к лекции](https://github.com/kvvik/DL_Course_SamU/blob/master/Lectures/Lecture_3_SGD_22.pdf)
|
|
|
|
|
[Презентация к лекции 3](https://github.com/kvvik/DL_Course_SamU/blob/master/Lectures/Lecture_3_SGD_22.pdf)
|
|
|
|
|
|
|
|
|
|
**Лекция 3. Нейронные сети и обратное распространение ошибки.**
|
|
|
|
|
|
|
|
|
@ -66,17 +67,22 @@ https://us02web.zoom.us/j/8366671872?pwd=NS9ZaXNWWG55Y0pESUZIZHlRa0U5dz09
|
|
|
|
|
Многослойный перцептрон.
|
|
|
|
|
Представление сети в виде вычислительного графа.
|
|
|
|
|
Алгоритм обратного распространения ошибки на вычислительном графе.
|
|
|
|
|
Разбор задач к самостоятельной: прямое и обратное распротранение по вычислительному графу.
|
|
|
|
|
|
|
|
|
|
**Лекция 4. Сверточные сети (СНС).**
|
|
|
|
|
История.
|
|
|
|
|
Основные операции СНС.
|
|
|
|
|
Применение СНС вне задач машинного зрения.
|
|
|
|
|
Разбор задач к самостоятельной: расчет выхода сверточной сети.
|
|
|
|
|
|
|
|
|
|
**Лекция 5. Инструментарий глубокого обучения.**
|
|
|
|
|
CPU vs GPU vs TPU.
|
|
|
|
|
Пакеты глубокого обучения, Tensorflow, Keras и другие.
|
|
|
|
|
Вычислительные графы СНС.
|
|
|
|
|
|
|
|
|
|
**Самостоятельня работа.**
|
|
|
|
|
Три задачи.
|
|
|
|
|
|
|
|
|
|
**Лекция 6. Обучение СНС, часть 1.**
|
|
|
|
|
|
|
|
|
|
Активационные функции, обработка данных сетью.
|
|
|
|
|