2018-12-25 02:22
![]()
Публикуем лонгрид по ещё одной презентации с прошедшего VK Hackathon. Руководитель прикладных исследований «ВКонтакте» Павел Калайдин рассказывает о работе искусственного интеллекта и о том, как его обмануть.
Распознавание
Все встречали изображения с оптическими иллюзиями, когда человек видит не то, что на них нарисовано. Точно также работают алгоритмы, когда пытаются распознать что-либо.
![]()
Например, есть картинка с изображением панды. Большинство детектеров, которые определяют объекты на фотографиях, будут уверены примерно на 60 %, что на изображении панда. Но если сделать похожее изображение с небольшим отличием в кодировании цветов, то алгоритм будет уверен с большей уверенностью, что это это гиббон, чем в первом случае.
![]()
Ещё одним примером можно выделить атаку на дорожные знаки: на знак STOP прикрепляли стикеры, а машина распознавала его как ограничение скорости.
![]()
Область, о которой ведётся речь в презентации, называется «Безопасность искусственного интеллекта» (ИИ), и сейчас активно ведутся исследования по ней.
![]()
В начале создания ИИ считался способом для решения задач, с которыми не может справиться человек, но решение которых может закодить. Например, отправить ракеты в космос. Со временем стало понятно, что, наоборот, ИИ — это решение задач, которые человек знает как сделать, но не может это закодить. Например, распознавание лица человека.
![]()
Для создания ИИ используется машинное обучение, которое берёт некоторые данные и находит их в них паттерн.
![]()
Считается, что ИИ самообучается, но это не совсем так. Алгоритм обучается на основе полученных данных, и качество его работы будет зависеть от опыта работы с данными.
![]()
Например, задача по определению хэштега по фотографии.
![]()
Обучение происходит так: имеется нейронная сеть, которая является функцией, содержащая какие-то веса. И в зависимости от ошибки эти веса меняются.
Как происходит обучение?![]()
Пример, как это работает:
![]()
Довольно распространена практика брать уже готовую нейросеть, дообучать её и использовать под свои задачи.
![]()
Всё началось с автоматизации борьбы со спамом, и спамеры пытаются пытаются обойти фильтры. Одними из первых атак на машинное обучение являлись попытки обойти фильтры для отправки спама.
![]()
Примером атак, может быть бот Microsoft — Tay, запущенный в Twitter. Он общался с пользователем, собирал от них информацию и тем самым обучался. Вскоре бот был отключен, так как он начал нецензурно выражаться.
![]()
Примеры того, как пытаются перехитрить фильтры «ВКонтакте»:
![]()
Один из примеров, где использовался ИИ в соцсети — памятная акция «Мирное небо»:
![]()
Adversarial machine learning — это задача, когда создаётся машинное обучение, которое нападает на другое машинное обучение, или же, наоборот, защищается от него.
![]()
Adversarial Example — это специальные примеры данных, которые показывают алгоритму, чтобы он заведомо ошибся.
![]()
Виды атак:
![]()
Для атак можно использовать выходы из уже имеющейся модели и обучить свою модель.
![]() Изображения
Обмануть алгоритм можно, использовав примеры, которые неизвестны модели. Но лучшим способом обхода ИИ является максимальное мимикрирование изображения под оригинал.
![]()
Примеры атак с помощью добавления шума:
![]() ![]()
Примеры атак с помощью добавления стикера:
![]()
Примеры атак с помощью изменения пикселя:
![]()
Также атаки производятся и на алгоритмы распознавания лиц:
![]()
Что может автоматически определять система «ВКонтакте» в текстах:
![]()
Пример поискового спама:
![]()
Пример, как обмануть алгоритм определения токсичности комментариев:
![]()
На каждую защиту можно придумать множество атак, поэтому эффективной защитой является как можно максимально усложнить задачу.
![]()
Как усложнить задачу:
![]()
Крутой концепцией является Defensive distillation, для которой используются тёмные знания.
Что ещё может усложнить работу проводимых атак:
![]()
Умение атаковать помогает найти способы защиты модели.
![]()
Пример атак «ВКонтакте» — переформулировать вопрос, ответ на который боты не смогут найти в поисковике.
![]() ![]()
Детектер думает, что это птица:
![]()
Вот и всё!
![]()
Посмотреть полную презентацию можно здесь:
Автор: Лена ГамельКорректор: Арсений Метелев
Источник: m.vk.com
|
Привет всем
Кибенематика - математическая кибернетика с намеком на отсыл к едреней фене__(АБС)__
понедельник, 24 декабря 2018 г.
Как обмануть искусственный интеллект?
Подписаться на:
Комментарии к сообщению (Atom)
Комментариев нет:
Отправить комментарий