Logo BSU

Пожалуйста, используйте этот идентификатор, чтобы цитировать или ссылаться на этот документ: https://elib.bsu.by/handle/123456789/303434
Полная запись метаданных
Поле DCЗначениеЯзык
dc.contributor.authorДубяга, Владислав Михайлович-
dc.date.accessioned2023-10-15T09:38:35Z-
dc.date.available2023-10-15T09:38:35Z-
dc.date.issued2023-
dc.identifier.urihttps://elib.bsu.by/handle/123456789/303434-
dc.description.abstractВ дипломной работе изучаются методы оптимизации, активно используемые в ма-шинном обучении. Проведен анализ и рассмотрены теоретические оценки сходимости градиентного спуска с постоянным шагом для выпуклых функций и сильно выпуклых функций с липшицевым градиентомru
dc.language.isoruru
dc.publisherМинск, БГУru
dc.rightsinfo:eu-repo/semantics/openAccessru
dc.subjectЭБ БГУ::ЕСТЕСТВЕННЫЕ И ТОЧНЫЕ НАУКИ::Математикаru
dc.titleМетоды оптимизации в машинном обучении: аннотация к дипломной работе / ДУБЯГА ВЛАДИСЛАВ МИХАЙЛОВИЧ; БГУ, Механико-математический факультет, Кафедра теории функций; науч. рук.: Бондарев С.А.ru
dc.typeannotationru
dc.rights.licenseCC BY 4.0ru
dc.description.alternativeThe thesis explores optimization methods actively used in machine learning. An analy-sis is conducted and theoretical convergence assessments of gradient descent with a constant step for convex functions and strongly convex functions with Lipschitz gradient are consid-ered.ru
Располагается в коллекциях:Математика (по направлениям). 2023

Полный текст документа:
Файл Описание РазмерФормат 
Дубяга_resume.pdf91,52 kBAdobe PDFОткрыть
Показать базовое описание документа Статистика Google Scholar



Все документы в Электронной библиотеке защищены авторским правом, все права сохранены.