Нейронные сети подвержены различным видам атак на вывод данных, например атака с инверсией модели, целью которой является извлечение конфиденциальных данных. Исследование описывает необходимость разработки алгоритма для предотвращения доступа злоумышленников к конфиденциальным данным, используемым для обучения нейронных сетей. Анализируются существующие методы защиты от атаки инверсии модели машинного обучения и предлагается более эффективное решение, которое позволяет увеличить ошибку инверсии модели.
Растворцева А.Е. (науч. рук. Есипов Д.А.) Разработка алгоритма защиты нейронной сети от атаки инверсии модели машинного обучения // Сборник тезисов докладов конгресса молодых ученых. Электронное издание. – СПб: Университет ИТМО, [2024]. URL: https://kmu.itmo.ru/digests/article/13018