Силовики стали задерживать участников антиправительственных акций, опознавая их по камерам наблюдения, «умеющим» определять лица. Соответствующая инициатива в Москве стартовала ещё в 2019 году, она активно использовалась и во время условного карантина в первую волну пандемии. Полиция отчитывалась об эффективности системы внедрения искусственного интеллекта (ИИ) и анонсировала многомиллиардные траты в этом направлении. NEWS.ru решил узнать, не стали ли современные цифровые опции политическим инструментом и источником злоупотреблений.
ИИ обманываться рад?
После массовых задержаний участников протеста, в Сети появились сообщения о том, что силовики в Москве ловили «вольнодумцев» не только во время непосредственно разгона массовых выступлений 23 и 31 января, а также 2 февраля, но и позднее, пользуясь услугами ИИ. Речь идёт о системе «умных» камер, которые начали активно внедряться в Москве с 2017 года, а с 1 июля 2020 года столица стала пилотной площадкой проведения эксперимента по использованию ИИ. В ноябре МВД представило проект по внедрению ИИ для выявления связи между преступлениями и поиска нарушителей закона, на который обещали выделить 55 млрд рублей из федерального бюджета.
Ранее в МВД заявляли, что ношение медицинских масок не влияет на распознавание лиц камерами видеонаблюдения, хотя позднее стало известно, что «умные» камеры в столичной подземке могут ошибаться и принимать одного человека за другого. Так, в частности, произошло с Сергеем Межуевым, которого система ИИ идентифицировала как человека, находящегося в розыске. Также известны истории других людей, которых задерживали по «наводкам» видеокамер, в том числе за то, что кто-то из таких граждан «стоит на учёте как политический».
Московские власти для создания системы слежки и распознавания лиц используют разработки нескольких компаний, к которым решил обратиться за комментариями NEWS.ru, чтобы выяснить несколько важных моментов. Например, насколько точно их разработки могут распознавать лица людей, например, в масках и капюшоне, или в бейсболке, не может ли такая система слежения стать поводом для злоупотреблений со стороны силовиков, которые уже вовсю пользуются плодами технического прогресса.
Одна из компаний — VisionLabs. Её представитель отказался давать комментарий, сказав, что их эксперты «не любят комментировать такие темы».
Мы делаем технологии, а другое дело — как их используют, и мы не готовы комментировать то, что происходит сейчас, — пояснил представитель компании.
Ранее основатель VisionLabs Александр Ханин рассказывал, что знает «несколько десятков способов [обмануть технологию распознавания лиц] за минуту». Он назвал себя и своих коллег «параноиками», которые, прежде чем выпускать решение на рынок, пытаются «сами его беспощадно ломать». Также он утверждал, что «Большинство алгоритмов в сфере распознавания лиц легко обмануть: достаточно распечатать фотографию, и камера не поймёт, что это не реальный человек».
В компании N-Tech.Lab, также разрабатывающей технологии для столичных властей, поступили аналогично и не стали давать комментарий без объяснения причин. Как писал TJ, это предприятие разработало специальный алгоритм распознавания лиц FaceN. До начала сотрудничества с чиновниками, сооснователь компании Артём Кухаренко рассказывал о его работе. По его словам, нейросеть извлекает из изображений величину глаз, фактуру бровей, форму губ и не только. В начале 2020 года компания получила $3,2 млн.
Директор по науке и технологиям Агентства искусственного интеллекта Роман Душкин в беседе с NEWS.ru пояснил, что решения для распознавания лиц на базе ИИ «сегодня получают такой уровень точности, что могут сравниться с человеческими глазами».
Система [распознавания] функционирует без человеческих проблем, таких как «отошёл покурить», «в туалете» и так далее, то есть система внимательна всегда. Люди, которые попадают в видеокамеры, проходят процедуру распознавания лиц и сверки с базой, где, например, находятся преступники в федеральном розыске. Но нет никаких гарантий, что туда кто-нибудь не попадёт во внесудебном порядке. Нормативная база здесь очень плохо проработана. Но если вашего лица в этой базе нет, то беспокоиться бессмысленно. Треки о том, где вы ходите, строят Google, Apple и оператор сотовой связи. Делают это они очень давно и сейчас работают с точностью до 50 м, можно даже определить, кто с кем в одном помещении находился.
Специалист считает, что внедрение систем распознавания лиц даёт больше положительных эффектов, чем отрицательных. По его мнению, «негативный момент эфемерен — нарушение свобод граждан на какие-нибудь вещи». Плюсами он назвал существенное облегчение поиска преступников, поскольку «ни один полицейский не может загрузить 15 тысяч фотографий в голову». Второй положительный момент — это возможность быстро отыскать потерявшихся людей, например пожилых или детей.
Говоря о точности определения людей, чьи лица закрыты масками, очками, капюшоном или шапкой, то, по словам Душкина, нейросетевые решения на базе ИИ можно «перетренировывать при возникновении каких-то новых ситуаций». Например, если человеческий мозг распознаёт знакомое лицо в маске или бейсболке, то и ИИ может справиться с этим. Но если человеческий интеллект не может решить какую-то задачу, даже применяя приборы ночного видения и тепловизоры, то ожидать, что ИИ решит эту задачу, неправильно, уверен Роман Душкин.
Что касается ошибок, то, по его словам, бывают двух видов — ложно-положительного и ложно-отрицательного срабатывания. Первая — это когда система распознает человека как «фигуранта» тревожного списка. Такая ошибка, по его словам, «легко исключается с помощью контроля оператора и переучиванием системы». Вторая ошибка возникает, когда система не распознаёт человека из тревожного списка.
Никто не хочет вступать в диалог
По мнению ведущего юриста Роскомсовободы Саркиса Дарбиняна, основная проблема системы распознавания лиц заключается в отсутствии публичного регламента, «который бы определял, на каких основаниях, кто и как может загружать фотографии в эту систему, а также, соответственно, кто ответственен за то, чтобы не было злоупотреблений».
Система впервые начала использоваться для отлова нарушителей порядка на стадионах. Сначала нам говорили, что она необходима для поиска пропавших детей и беглых преступников. Аппетиты приходят во время еды, и вскоре систему начали использовать во время пандемии. Людей штрафовали за нарушение режима самоизоляции: подъездные камеры идентифицировали, что человек выходил из дома, и таких случаев множество. Иногда система ложно срабатывает — людей доставляют в полицию, дополнительно ещё и отпечатки пальцев берут, а когда выясняется, что это не тот человек, никто за ошибки не извиняется. В итоге всё пришло к тому, чего боялись правозащитники: систему начали использовать для контроля гражданских протестов и мирных акций. Проблема в том, что система не только контролирует поведение людей, она может и менять это поведение. Человек, зная, что он находится под объективом камеры, которая его идентифицирует, может отказаться пойти на какое-то мероприятие, протест. И это глубокая проблема, которую изучают социологи и юристы во всём мире. Совет Европы 28 января выпустил рекомендации по использованию системы распознавания лиц, порекомендовав всем государствам не столь интенсивно внедрять эти технологии в правоохранительных и миграционных целях. Тем не менее Россия не только не прекращает, а пытается расширить возможности этой системы.
Он подчёркивает, что хоть Роскомнадзор должен отвечать за защиту персональных данных, он не обладает полномочиями правового характера, чтобы приходить и проверять силовиков. Поэтому, отмечает Дарбинян, различные карательные органы «имеют бесконтрольный доступ к тем серверам и модулям идентификации, которые есть у департамента информационных технологий Москвы, и могут загрузить в систему распознавания лиц фотографии кого угодно». Он напоминает, что правозащитники неоднократно обращались в суды и пытались запретить использовать технологию распознавания лиц, доказывая, что их данные «утекают на чёрный рынок, и что есть незаконный рынок „пробива“ по лицу в Москве».
Как предполагает исполнительный директор Общества защиты Интернета Михаил Климарёв, система слежки за гражданами посредством ИИ может стать источником злоупотреблений силовиков.
Мне до сих пор непонятно, почему общество так индифферентно по отношению к этой технологии. Ошибки поможет избежать общественная дискуссия и открытость. Но, как мы видим, никто не хочет вступать в диалог, а просто лепит камеры вагонами.
Как писал NEWS.ru, год назад московская мэрия заказала сотни мощных серверов для системы распознавания лиц, которая должна была анализировать данные 175 тысяч городских видеокамер, входящих в цифровую сеть по отслеживанию граждан. Общее число таких «окуляров» в городе должно превысить 200 тысяч. На этом фоне Еврокомиссия хотела на пять лет ограничить подобные системы, пока не будут оценены все её возможные опасности, а московская активистка Алёна Попова через суд добивалась запрета всеобщей видеофиксации и идентификации.
В подготовке материала также участвовала Марина Ягодкина.