Для достижения нужного эффекта изображение 40х40 сантиметров (которое в докладе экспертов обозначено словом patch) должно располагаться посередине detection box камеры и находиться в ее поле зрения постоянно. Конечно, этот способ не поможет человеку скрыть лицо, однако алгоритм обнаружения людей в принципе не сумеет обнаружить в кадре человека, а значит, последующее распознавание черт лица так же не будет запущено.
В ходе экспериментов исследователи пробовали использовать для обмана систем наблюдения самые разные картинки, включая абстрактный «шум» и размытые изображения, но оказалось, что лучше всего подходят фотографии случайных объектов, прошедшие различную обработку. К примеру, на иллюстрации ниже можно увидеть «патчи», созданные из случайных картинок, которые поворачивали на 20 градусов, масштабировали случайным образом, с добавлением «шумов», а также картинкам рендомно модифицировали яркость и контраст.
Если нанести полученные изображения на одежду, сумку и так далее, алгоритмы перестанут видеть за ними человека. Наглядно убедиться в эффективности таких картинок можно посмотрев PoC-видео, опубликованное специалистами. Эксперты тестировали свой метод на опенсорсной нейросети Darknet, которая применяет систему обнаружения объектов в реальном времени YOLOv2 (You Only Look Once).
Точно так же от камер можно «спрятать» не только человека, но и любой другой объект, например, система наблюдения «не увидит» автомобиль или сумку с нанесенным на нее «патчем».
Помимо публикации доклада и видео, исследователи выложили на GitLab исходные коды, которые использовали они для создания «патчей», так что повторить и продолжить их эксперименты может любой желающий.
Комментариев нет:
Отправить комментарий