Исследователи из Университета Торонто разработали алгоритм, который блокирует работу системы распознавания лиц. Созданная ими программа едва ощутимо меняет изображение на уровне пикселей, в результате чего оно сбивает с толку систему распознавания.
Лицо человека после воздействия программы выглядит, как обычное — это различие не уловит человеческий глаз. По утверждению учёных, вероятность того, что система распознавания после такой обработки изображения сработает правильно, — 0,5%.
Полученный исследователями из Торонто алгоритм — результат применения «антагонистической», то есть основанной на противоборстве, модели обучения. В ней используются две нейронных сети, которые, работая в паре, учат друг друга, используя базу данных из 600 лиц. Одна, «генератор», оценивает данные и производит распознавание, а вторая, «дискриминатор», — ищет слабые места в результатах работы первой.
Например, если генератор использует уголки глаз, то дискриминатор, узнав это, слегка видоизменяет именно их. На основе таких навыков создаётся алгоритм подавления распознавания лиц.
Применение нового алгоритма может состоять в том, чтобы препятствовать онлайновому распознаванию лиц на фотографиях, которое производится на каких-то сайтах. Например, в социальной сети Facebook имеется программа, наносящая на фотографии метки, которые могут быть использованы в дальнейшем. Существование этой программы уже навлекло на Facebook определённые неприятности юридического характера.
Авторы нового алгоритма, профессор Пархам Аараби и аспирант Авишек Бозе, надеются разработать приложение или сайт, который даст пользователю возможность накладывать на свои изображения невидимый экран, чтобы защитить их от распознавания. После обработки по защитному алгоритму исходное изображение не может быть восстановлено.
Таким образом, новое изобретение никак не посодействует тем, кто мечтает защититься от постоянно расширяющегося применения правоохранителями распознавания лиц в общественных местах. Зато оно, возможно, поможет защитить приватность людей в Сети — до тех пор, пока не будет разработан тот искусственный интеллект, который преодолеет эту защиту.
МОСКВА, ИА «Безопасность Сегодня»
21
Источник: arms-expo.ru
Добавить комментарий