Logo BSU

Пожалуйста, используйте этот идентификатор, чтобы цитировать или ссылаться на этот документ: https://elib.bsu.by/handle/123456789/248666
Полная запись метаданных
Поле DCЗначениеЯзык
dc.contributor.authorVoynov, D. M.-
dc.contributor.authorKovalev, V. A.-
dc.date.accessioned2020-09-24T12:32:43Z-
dc.date.available2020-09-24T12:32:43Z-
dc.date.issued2020-
dc.identifier.citationКомпьютерные технологии и анализ данных (CTDA’2020) : материалы II Междунар. науч.-практ. конф., Минск, 23–24 апр. 2020 г. / Белорус. гос. ун-т ; редкол.: В. В. Скакун (отв. ред.) [и др.]. – Минск : БГУ, 2020. – С. 185-189.-
dc.identifier.isbn978-985-566-942-6-
dc.identifier.urihttps://elib.bsu.by/handle/123456789/248666-
dc.descriptionСекция «Системы машинного и глубокого обучения»-
dc.description.abstractA few years ago, it was discovered that the Deep Convolutional Neural Networks (CNN) are vulnerable to so-called adversarial attacks. An adversarial attack supposes a subtle modification of an original image in such a way that the changes are almost invisible to the human eye. In this work, we are concentrating on biomedical images, which are playing the key role in the disease diagnosis and monitoring of various treatment processes. We present detailed results on the success rate for both white-box and black-box untargeted attacks to five types of popular deep CNN architectures including InceptionV3, Xception, ResNet50, DenseNet121, and Mobilenet-
dc.language.isoen-
dc.publisherМинск : БГУ-
dc.subjectЭБ БГУ::ЕСТЕСТВЕННЫЕ И ТОЧНЫЕ НАУКИ::Кибернетика-
dc.titleA comparative study of white-box and black-box adversarial attacks to the deep neural networks with different architectures-
dc.typeconference paper-
Располагается в коллекциях:2020. Компьютерные технологии и анализ данных (CTDA’2020)

Полный текст документа:
Файл Описание РазмерФормат 
185-189.pdf317,37 kBAdobe PDFОткрыть
Показать базовое описание документа Статистика Google Scholar



Все документы в Электронной библиотеке защищены авторским правом, все права сохранены.