Имперский колледж Лондона и британский исследовательский центр Samsung по искусственному искусству рассказали о разработке, связанной с технологией deepfake. Программа использует фотографию и аудиофайл для создания поющего или говорящего видеопортрета.
Исследователи в качестве примера показали ролик с Альбертом Эйнштейном, в котором фотографию учёного объединили с его голосовой дорожкой. В другом видео разработчики «заставили» Григория Распутина исполнить отрывок из песни Бейонсе Halo.
В начале июня News.ru рассказал, что российский алгоритм, разработанный специалистами компании NtechLab, был представлен на международном конкурсе нейросетей Activities in Extended Videos Prize Challenge в США. Искусственный интеллект стал вторым, обойдя 37 американских, китайских и австралийских конкурентов.