Logo BSU

Пожалуйста, используйте этот идентификатор, чтобы цитировать или ссылаться на этот документ: https://elib.bsu.by/handle/123456789/306248
Заглавие документа: Compressing a convolution neural network based on quantization
Авторы: Pertsau, Dmitry
Lukashevich, Marina
Kupryianava, Dziana
Тема: ЭБ БГУ::ЕСТЕСТВЕННЫЕ И ТОЧНЫЕ НАУКИ::Кибернетика
ЭБ БГУ::ЕСТЕСТВЕННЫЕ И ТОЧНЫЕ НАУКИ::Математика
Дата публикации: 2023
Издатель: Minsk : BSU
Библиографическое описание источника: Pattern Recognition and Information Processing (PRIP’2023). Artificial Universe: New Horisont : Proceedings of the 16 th International Conference, Belarus, Minsk, October 17–19, 2023 / Belarusian State University : eds. A. Nedzved, A. Belotserkovsky. – Minsk : BSU, 2023. – Pp. 269-272.
Аннотация: Modern deep neural network models contain a large number of parameters and have a significant size. In this paper we experimentally investigate approaches to compression of convolutional neural network. The results showing the efficiency of quantization of the model while maintaining high accuracy are obtained
URI документа: https://elib.bsu.by/handle/123456789/306248
ISBN: 978-985-881-522-6
Лицензия: info:eu-repo/semantics/openAccess
Располагается в коллекциях:2023. Pattern Recognition and Information Processing (PRIP’2023). Artificial Intelliverse: Expanding Horizons

Полный текст документа:
Файл Описание РазмерФормат 
269-272.pdf440,46 kBAdobe PDFОткрыть
Показать полное описание документа Статистика Google Scholar



Все документы в Электронной библиотеке защищены авторским правом, все права сохранены.