Фейковые видео весьма опасны и несут серьёзные риски, сообщил «360» эксперт по кибербезопасности, директор и партнёр компании «Интеллектуальный резерв» Павел Мясоедов. Он объяснил, что можно, например, притвориться политиком и разместить видеозапись в интернете, вводя людей в заблуждение, поэтому технология распознавания обмана очень важна. Такое мнение он высказал, комментируя разработку российских учёных в области распознавания лжи по видеозаписи с помощью искусственного интеллекта.
По словам специалиста, для того чтобы распознавать объекты, люди с рождения на что-то смотрят по 15–16 часов в сутки, то же самое нужно и компьютеру.
Машине нужно то же самое, при этом скорость её мыслительных процессов в некоторых областях куда ниже. Поэтому нужно долго обучать машину, потребуется вовлечённость специалистов, которые будут ей говорить, правильно она действует или нет, — сказал Мясоедов.
Эксперт подчеркнул, что при всех временных затратах технологии такого рода весьма перспективны, поскольку дипфейков становится очень много и они несут серьёзные риски. К счастью, зачастую дипфейк делается из более-менее статичной картинки, на которой человек мало двигается, добавил он.
Дело в том, что во время движения происходят разрывы графики и их можно увидеть. Машина будет эти нестыковки вылавливать в видеороликах. Это очень полезная технология, ведь дипфейки уже не просто какое-то развлечение, они несут серьезные риски, — отметил Мясоедов.
Эксперт также уточнил, что в перспективе искусственный интеллект может появиться в жизни людей. Однако, скорее всего, они будут больше использовать как раз сложные системы машинного обучения, которые упростят повседневную жизнь, заключил Мясоедов.
Роскомнадзор ранее заинтересовался разработкой российских учёных в области распознавания лжи по видеозаписи с помощью искусственного интеллекта. В ведомстве допускают, что система может использоваться для выявления дипфейков. Однако участники рынка сомневаются в перспективности разработки, полагая, что вероятность ложных срабатываний будет слишком высока.