Технология deepfake стала одной из самых обсуждаемых в последние месяцы. Специалисты верят в её огромный потенциал для всей сферы, а вот политики и эксперты по кибербезопасности, напротив, озабочены проблемами, развитию которых способствовал инструмент по замене лиц. На Московском международном форуме «Открытые инновации» в Сколково прошла дискуссия, посвящённая deepfake, её влиянию на общество и дальнейшему применению в различных областях.
По словам интернет-омбудсмена аппарата уполномоченного при президенте РФ по правам предпринимателей Дмитрия Мариничева, для жертв, которых шантажируют deepfake-роликами сомнительного содержания с их участием, всё может обернуться печально не только в денежно-финансовом плане, но и в эмоциональном, поскольку человек, несмотря на фальшивость видео, всё равно будет переживать.
Именно из-за переходного периода, когда технологии опережают человеческие возможности по восприятию, неготовности людей, возникают такие вот эффекты, которые начинают сильно, сильно давить. Сейчас не то чтобы нужно опасаться и бояться [deepfake], а нужно как можно больше это обсуждать и вырабатывать стратегию и понимание того, как с этим жить, — уверен Мариничев.
Проблема эффективности технологии и доверия к ней многих пользователей заключается в том, что люди видят то, что они хотят видеть. Как считает профессор Джорджтаунского университета и президент PGLF Самуэль Потоликкио, мозг человека пытается усмотреть то, во что мы верим, и подкрепить это соответствующими доказательствами. Именно поэтому deepfake в дальнейшем имеет все шансы развиться в опасный инструмент манипуляции обществом, к которому могут обратиться в том числе и журналисты.
Методы борьбы
На текущий момент, по различным оценкам, в Сети можно найти около 14 678 deepfake-видео, и основным драйвером развития технологии выступает порно. Доля роликов для взрослых от всего подобного контента составляет 96%, которые посмотрело 134 млн пользователей за 2019 год.
В то же время некоторые применяют deepfake для так называемой порномести — злоумышленники заменяют лицо актрисы на лицо нужной им жертвы. Чтобы пресечь дальнейшее развитие проблемы, власти Вирджинии и Калифорнии защитили юзеров на законодательном уровне: создатели deepfake ради порномести могут отправиться в тюрьму либо заплатить большой штраф.
Разработка инструментов по борьбе с фейковым контентом уже ведётся. Google выпустила для исследователей огромный бесплатный набор данных о deepfake-роликах, а Facebook объединилась с Microsoft и несколькими университетами для проведения конкурса по реализации технологии, распознающей фальшивки. Соответствующие проекты развиваются и в России, но на текущий момент даже самые дорогие специализированные программы в мире не могут гарантировать результата.
Интернет-омбудсмен полагает, что разрабатывать решения, которые будут контролировать или бороться с deepfake — это утопия. По словам Мариничева, с точки зрения технологий мир будет двигаться в сторону, когда источник, генерирующий честный и правильный контент, имеет прямую точку контакта с потребителем без посредников.
Механика технологии должна будет опережать механику проблематики. А сейчас, будучи офлайновыми, мы пытаемся защитить и граждан, и самих себя в той среде, которая неспособна к реализации с точки зрения решения этого вопроса<...> Не нужно придумывать то, что является пятым колесом и не способно решить проблему. Нужно придумывать то, что позволяет изменить социально-экономический уклад внутри общества и разобраться с возникшей проблемой. Или сделать её незначимой, — заявил интернет-омбудсмен.
Не всё так плохо
При этом технология замены лиц используется и во благо. В частности, в развлекательных целях. Например, популярный YouTube-канал Ctrl Shift Face выкладывает ролики из знаменитых фильмов, где одного актёра заменяют на другого. Сторонником этой творческой стороны deepfake выступает и продюсер Ирина Смолко, которая согласна с тем, что режиссёры будут применять технологию в кино.
По её мнению, существование таких роликов уже говорит о том, что инструмент будет очень широко внедряться. Причина кроется в человеческим факторе: в киноиндустрии режиссёры постоянно сталкиваются с трудностями при работе с актёрами, а вот deepfake позволит вносить исправления в материал без их участия. Смолко уверена, что если качество deepfake достигнет высокого уровня, она непременно ей воспользуется.
В положительный потенциал технологии по замене лиц верит и Потоликкио. Он считает, что фальшивые ролики, используемые в рамках политической гонки, могут произвести эффект атомной бомбы, что подтолкнёт кандидатов к изучению технологических аспектов и, что самое главное, максимальной прозрачности и честности.
Сегодня люди, по мнению профессора, слишком закрылись в своих коконах — технологические гиганты всё глубже загоняют пользователя в собственный мозг. Алгоритмы популярных платформ усложняют прозрачность человека по отношению к себе, и в итоге он перестаёт понимать, чего он действительно хочет и то, к чему его подталкивает машина. Основная же проблема, уверен Потоликкио, кроется не в самом deepfake как средстве манипуляции, а человеческой природе — пользователи забывают обо всём, что находится за пределами их кокона, и таким образом теряют возможность оценивать ситуацию объективно, не опираясь на собственные убеждения.