Deepfake и fake news становятся серьёзной угрозой

Технологии/гаджеты 15 февраля, 2019 / 10:26

Фейковые новости становятся если не главной проблемой всего интернет-пространства, то совершенно точно одной из основных. В 2018 году количество выдуманных историй, по данным компании «Медиалогия», практически достигло отметки в 21 тыс. сообщений — это на 5 тыс. больше, чем было в 2017-м. При этом издания стали тщательнее фильтровать инфоповоды, поэтому подобных фейковых публикаций стало меньше.

Снижению процента fake news в Рунете должны способствовать и возможные штрафы — законопроект об ответственности за распространение недостоверных новостей в конце января 2019 года был одобрен Госдумой в первом чтении. Первоначально размеры денежных взысканий выглядели следующим образом:

  • от 3 до 5 тысяч рублей — для физических лиц;
  • от 30 до 50 тысяч — для должностных лиц;
  • от 400 тысяч до миллиона рублей — для юридических лиц.

Однако группа депутатов посчитала, что указанные в документе суммы не столь значительны (правда, не для всех категорий), и в связи с этим разработала поправки к законопроекту, увеличив штрафы: физическим лицам — от 30 тыс. до 100 тыс. рублей, должностным лицам — от 60 тыс. до 200 тыс. рублей и юрлицам — от 200 тыс. до 500 тыс. рублей.

Фейковым новостям была посвящена отдельная панель XII Международного форума по кибербезопасности Cyber Security Forum 2019, в рамках которой эксперты постарались объяснить, с какой целью применяют fake news и как с ними бороться. Специалист Институт развития Интернета (ИРИ) Виктор Леванов рассказал, что выдуманные новости создаются для девяти целей: паники, мошенничества, буллинга, медийного урона, морального вреда, финансовых махинаций, помех следствию, лоббизма и косвенного ущерба.

С некоторыми из них пользователи сталкивались не так давно. Например, спекуляции на тему числа жертв во время пожара в торговом центре «Зимняя вишня» в Кемерово, травля подростка, не имеющего отношения к массовому расстрелу в Керчи, или сбор мошенниками финансовой помощи семьям погибших и пострадавшим от взрыва в жилом доме в Магнитогорске.

Недостоверность подобных сообщений зачастую очень быстро обнаруживается, причём как обычными пользователями, так и изданиями, однако, как отметил Леванов, опровержения не гарантируют достижения эффекта, равного нанесённому от фейка урону. Но при этом с fake news можно и нужно бороться. Один из главных способов — это, конечно же, проверка фактов и опровержения. Так, в случае с Олимпиадой был создан сайт «Слухи Сочи», который опровергал последовательно и методично каждый фейк о масштабном спортивном мероприятии, и там впоследствии зарубежные журналисты, использовавшие недостоверную информацию, приносили извинения со ссылкой на созданный сайт. Кроме того, при борьбе с фейками крайне важны официальные заявления, работа с экспертами, а также опровержения через суд и в источнике.

Фото: imago stock&people/Global Look Press

От порнографии к пропаганде

Говоря о fake news, нельзя не упомянуть об одной из категорий фальшивок, получившей стремительное развитие за последний год, — deepfake (термин, образованный от слов deep learning — «глубокое изучение» — и fakes). Для тех, кто впервые слышит о подобной технологии, объясняем: это видеоролики, созданные путём синтеза человеческих образов на основе искусственного интеллекта. Грубо говоря, любой желающий может спокойно заменить лицо героя какого-нибудь ролика на лицо необходимого ему человека. И хотя для достижения приемлемого результата потребуются мощное «железо» и продолжительное время (пока нейросеть обучается), deepfake остаётся самым доступным инструментом для создания фальшивых видео.

Конечно, подобную технологию можно пустить и на такие благие цели, как «воскрешение» умерших знаменитостей в фильмах, или на забавную замену лиц в юмористических роликах (что уже проделали с Николасом Кейджем). Однако чаще остальных deepfake используют для создания порнографических роликов. News.ru посвятил этой теме специальный материал, в котором мы рассказали, что популярность технологии развилась на портале reddit, где в 2017 году появился раздел r/CelebFakes/. В нём пользователь под псевдонимом deepfake опубликовал несколько фальшивых взрослых видео со знаменитостями. В их числе оказались Галь Гадот, Дейзи Ридли, Мэйси Уильямс и Скарлетт Йоханссон.

После этого разразился большой скандал, который привёл к закрытию раздела и блокированию подобного контента многими сайтами, в том числе и знаменитым Pornhub (тем не менее пользователи жалуются, что звёздное порно всё ещё можно найти не только там, но и на специально созданных сайтах, которые по сей день регулярно пополняются новинками).

Но эксперты считают, что это лишь верхушка айсберга и на самом деле deepfake представляет куда большую угрозу — технология может стать опасным оружием в информационных войнах. В апреле 2018 года в Сети появилось знаменитое видео с Бараком Обамой, наглядно показывающее возможности фейковых роликов и предупреждающее пользователей об «опасном времени», в котором нельзя верить всему найденному в Интернете и нужно полагаться только на надёжные источники. Ознакомиться с ним можно ниже.

«Сейчас много внимания нужно уделять работе с информацией. Если такое видео создано, значит, есть какой-то первоисточник, с которым и можно сравнить ролик и посмотреть, что на самом деле было произнесено, какие факты упомянуты и были ли утверждения в других СМИ» — заметил специалист «Лаборатории Касперского» Андрей Сиденко.

При этом компания уже изучает проблему deepfake и работает в данном направлении. Сиденко считает, что когда созданные подделки станут высококачественными, то и программы технических средств к этому моменту уже научатся определять и в автоматическом режиме отсеивать подобную информацию и подобные видео.

Когда именно этот момент наступит, остаётся неизвестным, но специалистам действительно необходимо работать на опережение. По мнению ведущего аналитика РОЦИТ Урвана Парфентьева, помимо явно политических мотивов потенциал deepfake рискует быть реализованным и в других незаконных действиях, направленных на обычных людей. Та же самая фейковая порнография может быть использована для мести — молодые люди или девушки просто заменят лица актёров или актрис взрослого жанра на лица своих бывших, а затем опубликуют ролик в Сети.

Подобным образом могут поступить и мошенники. Известны сотни примеров, когда злоумышленники шантажируют людей некими компрометирующими фото- или видеоматериалами, требуя за них деньги. Но теперь у сомнительных личностей есть инструмент для их целей, удобный и эффективный. А контент, необходимый для обучения ИИ и создания deepfake, легко находится в социальных сетях — миллионы пользователей каждый день публикуют сотни своих фото и видео. Этого будет вполне достаточно, и прежде чем жертва, в особенности несовершеннолетняя, сможет доказать, что ролик — подделка, пройдёт немало времени, за которое с человеком может произойти всё что угодно.