diff --git a/README.md b/README.md index f9a5701..9a6d87c 100644 --- a/README.md +++ b/README.md @@ -56,9 +56,10 @@ https://us02web.zoom.us/j/8366671872?pwd=NS9ZaXNWWG55Y0pESUZIZHlRa0U5dz09 Софтмакс и мультимодальная логистическая регрессия. Оптимизация функции потерь. Стохастический градиентный спуск (SGD). +Разбор задач к самостоятельной: фукции потерь для SVM и софтмакса. [Видеозапись третьей лекции](https://youtu.be/9nUzJxCeKIc) -[Презентация к лекции](https://github.com/kvvik/DL_Course_SamU/blob/master/Lectures/Lecture_3_SGD_22.pdf) +[Презентация к лекции 3](https://github.com/kvvik/DL_Course_SamU/blob/master/Lectures/Lecture_3_SGD_22.pdf) **Лекция 3. Нейронные сети и обратное распространение ошибки.** @@ -66,17 +67,22 @@ https://us02web.zoom.us/j/8366671872?pwd=NS9ZaXNWWG55Y0pESUZIZHlRa0U5dz09 Многослойный перцептрон. Представление сети в виде вычислительного графа. Алгоритм обратного распространения ошибки на вычислительном графе. +Разбор задач к самостоятельной: прямое и обратное распротранение по вычислительному графу. **Лекция 4. Сверточные сети (СНС).** История. Основные операции СНС. Применение СНС вне задач машинного зрения. +Разбор задач к самостоятельной: расчет выхода сверточной сети. **Лекция 5. Инструментарий глубокого обучения.** CPU vs GPU vs TPU. Пакеты глубокого обучения, Tensorflow, Keras и другие. Вычислительные графы СНС. +**Самостоятельня работа.** +Три задачи. + **Лекция 6. Обучение СНС, часть 1.** Активационные функции, обработка данных сетью.