Пожалуйста, используйте этот идентификатор, чтобы цитировать или ссылаться на этот документ:
https://elib.bsu.by/handle/123456789/303434Полная запись метаданных
| Поле DC | Значение | Язык |
|---|---|---|
| dc.contributor.author | Дубяга, Владислав Михайлович | - |
| dc.date.accessioned | 2023-10-15T09:38:35Z | - |
| dc.date.available | 2023-10-15T09:38:35Z | - |
| dc.date.issued | 2023 | - |
| dc.identifier.uri | https://elib.bsu.by/handle/123456789/303434 | - |
| dc.description.abstract | В дипломной работе изучаются методы оптимизации, активно используемые в ма-шинном обучении. Проведен анализ и рассмотрены теоретические оценки сходимости градиентного спуска с постоянным шагом для выпуклых функций и сильно выпуклых функций с липшицевым градиентом | ru |
| dc.language.iso | ru | ru |
| dc.publisher | Минск, БГУ | ru |
| dc.rights | info:eu-repo/semantics/openAccess | ru |
| dc.subject | ЭБ БГУ::ЕСТЕСТВЕННЫЕ И ТОЧНЫЕ НАУКИ::Математика | ru |
| dc.title | Методы оптимизации в машинном обучении: аннотация к дипломной работе / ДУБЯГА ВЛАДИСЛАВ МИХАЙЛОВИЧ; БГУ, Механико-математический факультет, Кафедра теории функций; науч. рук.: Бондарев С.А. | ru |
| dc.type | annotation | ru |
| dc.rights.license | CC BY 4.0 | ru |
| dc.description.alternative | The thesis explores optimization methods actively used in machine learning. An analy-sis is conducted and theoretical convergence assessments of gradient descent with a constant step for convex functions and strongly convex functions with Lipschitz gradient are consid-ered. | ru |
| Располагается в коллекциях: | Математика (по направлениям). 2023 | |
Полный текст документа:
| Файл | Описание | Размер | Формат | |
|---|---|---|---|---|
| Дубяга_resume.pdf | 91,52 kB | Adobe PDF | Открыть |
Все документы в Электронной библиотеке защищены авторским правом, все права сохранены.

