Пожалуйста, используйте этот идентификатор, чтобы цитировать или ссылаться на этот документ:
https://elib.bsu.by/handle/123456789/303434
Полная запись метаданных
Поле DC | Значение | Язык |
---|---|---|
dc.contributor.author | Дубяга, Владислав Михайлович | - |
dc.date.accessioned | 2023-10-15T09:38:35Z | - |
dc.date.available | 2023-10-15T09:38:35Z | - |
dc.date.issued | 2023 | - |
dc.identifier.uri | https://elib.bsu.by/handle/123456789/303434 | - |
dc.description.abstract | В дипломной работе изучаются методы оптимизации, активно используемые в ма-шинном обучении. Проведен анализ и рассмотрены теоретические оценки сходимости градиентного спуска с постоянным шагом для выпуклых функций и сильно выпуклых функций с липшицевым градиентом | ru |
dc.language.iso | ru | ru |
dc.publisher | Минск, БГУ | ru |
dc.rights | info:eu-repo/semantics/openAccess | ru |
dc.subject | ЭБ БГУ::ЕСТЕСТВЕННЫЕ И ТОЧНЫЕ НАУКИ::Математика | ru |
dc.title | Методы оптимизации в машинном обучении: аннотация к дипломной работе / ДУБЯГА ВЛАДИСЛАВ МИХАЙЛОВИЧ; БГУ, Механико-математический факультет, Кафедра теории функций; науч. рук.: Бондарев С.А. | ru |
dc.type | annotation | ru |
dc.rights.license | CC BY 4.0 | ru |
dc.description.alternative | The thesis explores optimization methods actively used in machine learning. An analy-sis is conducted and theoretical convergence assessments of gradient descent with a constant step for convex functions and strongly convex functions with Lipschitz gradient are consid-ered. | ru |
Располагается в коллекциях: | Математика (по направлениям). 2023 |
Полный текст документа:
Файл | Описание | Размер | Формат | |
---|---|---|---|---|
Дубяга_resume.pdf | 91,52 kB | Adobe PDF | Открыть |
Все документы в Электронной библиотеке защищены авторским правом, все права сохранены.