Пожалуйста, используйте этот идентификатор, чтобы цитировать или ссылаться на этот документ:
https://elib.bsu.by/handle/123456789/248666
Заглавие документа: | A comparative study of white-box and black-box adversarial attacks to the deep neural networks with different architectures |
Авторы: | Voynov, D. M. Kovalev, V. A. |
Тема: | ЭБ БГУ::ЕСТЕСТВЕННЫЕ И ТОЧНЫЕ НАУКИ::Кибернетика |
Дата публикации: | 2020 |
Издатель: | Минск : БГУ |
Библиографическое описание источника: | Компьютерные технологии и анализ данных (CTDA’2020) : материалы II Междунар. науч.-практ. конф., Минск, 23–24 апр. 2020 г. / Белорус. гос. ун-т ; редкол.: В. В. Скакун (отв. ред.) [и др.]. – Минск : БГУ, 2020. – С. 185-189. |
Аннотация: | A few years ago, it was discovered that the Deep Convolutional Neural Networks (CNN) are vulnerable to so-called adversarial attacks. An adversarial attack supposes a subtle modification of an original image in such a way that the changes are almost invisible to the human eye. In this work, we are concentrating on biomedical images, which are playing the key role in the disease diagnosis and monitoring of various treatment processes. We present detailed results on the success rate for both white-box and black-box untargeted attacks to five types of popular deep CNN architectures including InceptionV3, Xception, ResNet50, DenseNet121, and Mobilenet |
Доп. сведения: | Секция «Системы машинного и глубокого обучения» |
URI документа: | https://elib.bsu.by/handle/123456789/248666 |
ISBN: | 978-985-566-942-6 |
Располагается в коллекциях: | 2020. Компьютерные технологии и анализ данных (CTDA’2020) |
Полный текст документа:
Файл | Описание | Размер | Формат | |
---|---|---|---|---|
185-189.pdf | 317,37 kB | Adobe PDF | Открыть |
Все документы в Электронной библиотеке защищены авторским правом, все права сохранены.