Трюк обманывает только конкретный алгоритм, но исследователи работают над более универсальным решением.
Распространение видеонаблюдения на базе искусственного интеллекта вызывает беспокойство. Способность государств отследить и идентифицировать граждан в толпе может положить конец общественной анонимности. Но, как снова и снова показывают исследователи — есть способы обмануть такие системы.
Последний пример взят из группы инженеров из университета К.Ю.Лёвена в Бельгии. В статье, опубликованной на прошлой неделе на сервере arXiv, эти студенты показывают, как простые печатные узоры могут обмануть систему ИИ, предназначенную для распознавания людей на изображениях.
Если вы распечатаете один из специально разработанных узоров и повесите его на шею, с точки зрения ИИ, вы, возможно, надели плащ-невидимку.
Как пишут исследователи: «Мы считаем, что, если мы объединим эту технику со сложным моделированием одежды, мы сможем создать принт на футболке, который сделает человека практически невидимым для автоматических камер наблюдения». (Они не упоминают об этом, но это, как известно, важный сюжетный прием в научно-фантастическом романе Уильяма Гибсона «Нулевая история».)
Это может показаться странным, но на самом деле это хорошо известное явление в мире искусственного интеллекта. Эти виды узоров известны как вредоносные примеры (adversarial examples — инструмент атаки на нейронную сеть с целью вызвать ошибки в ее поведении), и они используют хрупкость интеллекта систем компьютерного зрения, чтобы обмануть его и заставить увидеть то, чего нет.
В прошлом вредоносные примеры использовались, чтобы обмануть системы распознавания лиц. (Просто наденьте специальные очки, и ИИ подумает, что вы Милла Йовович.) Они были превращены в наклейки, напечатаны на 3D-объектах и даже использовались для создания картин, которые может обмануть алгоритмы.
Многие исследователи предупреждают, что вредоносные примеры имеют опасный потенциал. Их можно использовать, например, для того, чтобы обмануть автомобили под управлением ИИ, чтобы они читали знак остановки в качестве фонарного столба, или они могли обмануть системы ИИ, предназначенные для выявления заболеваний. Это может быть сделано в целях медицинского мошенничества или даже для преднамеренного причинения вреда.
В случае с этим недавним исследованием, которое мы заметили благодаря исследователю Google Дэвиду Ха, применяются некоторые оговорки. Самое главное, что узор, разработанный студентами, может обмануть только один конкретный алгоритм с именем YOLOv2. Он не работает даже с готовыми системами компьютерного зрения, разработанными Google или другими техническими компаниями, и, разумеется, он не работает, если человек смотрит на изображение.
Это означает, что идея футболки, которая делает вас невидимой для всех систем наблюдения, остается в сфере фантастики — по крайней мере, на данный момент. По мере того как видеонаблюдение на базе ИИ разворачивается по всему миру, все больше и больше людей могут стремиться вернуть себе анонимность. Кто знает: галлюциногенные узоры вредоносных примеров могут стать следующим большим модным трендом.