0

Технология подмены лиц испугала законодателей США

Технология подмены лиц испугала законодателей США
Американские законодатели попросили спецслужбы страны оценить угрозы для США от использования технологии Deepfake, которая позволяет делать фейковые видеоролики с подменой лиц людей. Пока deepfake используется в развлекательных целях, но в США опасаются, что это может привести к новому опасному развитию фейковых новостей.

Технологии подмены лиц вызывают опасения у многих людей, в то время как исследователи совершенствуют алгоритмы. К примеру, ученые из Университета Карнеги - Мелона создали нейросеть для наложения мимики одного человека на лицо другого. Цель, казалось бы, благая: авторы считают, что алгоритмы могут использоваться в кинематографе для удешевления создания спецэффектов.

Основой проекта стала технология DeepFake - генеративная модель пытается обмануть дискриминационную, и, наоборот, в результате чего система понимает, как преобразовать целевой источник по образцу исходного.

Алгоритм cycle-GAN передачи свойств другому объекту не идеален и допускает наличие артефактов на изображении. Чтобы повысить качество работы нейросети, исследователи использовали его усовершенствованную версию Recycle-GAN. Он учитывает не только положение разных частей лица, но и скорость их движения

Нейронная сеть успешно перенесла мимику телеведущего Стивена Кольбера на лицо комика Джона Оливера. Более того, она перенесла процесс цветения нарцисса на гибискус.

Возрастающие возможности этой технологии увеличивают обеспокоенность, в связи с тем что она может создавать фейковое видео, например американского политика, принимающего взятку или иностранного лидера, предупреждающего о надвигающейся катастрофе.

Три конгрессмена направили письмо директору Национальной разведки Дэн Коутсу с вопросом, как эти высокотехнологичные видеоролики могут угрожать национальной безопасности США. Республиканцы и демократы считают, что Deepfake может стать оружием в дезинформационных войнах против Соединенных Штатов и других западных демократий.

Законодатели обратились к спецслужбам с просьбой представить отчет конгрессу к середине декабря, в котором описываются угрозы и возможные ответные меры, которые могут разработать или использовать США для защиты.

Стоит отметить, что для создания фейковых видео с заменой лиц даже сейчас, на ранней стадии развития технологии, зачастую не требуется специальное программное обеспечение или знания. Видео можно сделать прямо в браузере: недавно появился сайт MachineTube, позволяющий подменять лицо на видео или в изображениях.

Пока в сервисе доступно несколько натренированных нейросетевых моделей для знаменитостей, например, Дональда Трампа и Спока из сериала "Звездный путь". Пользователю не нужно устанавливать на компьютер специальную программу, но за счет использования браузерной библиотеки для машинного обучения сервис проводит вычисления с помощью вычислительных мощностей компьютера пользователя.

Нейросетевые алгоритмы, позволяющие создавать реалистичные ролики с измененными лицами или мимикой людей, существуют давно, и в последнее время они достигли такого уровня, что могут учитывать множество параметров мимики, а созданные ими видео настолько реалистичны, что людям сложно отличить их от реальных роликов. Тем не менее наибольший общественный интерес вызвала далеко не самая совершенная технология подмены лица на видео, использованная в других целях по сравнению с предыдущими исследовательскими проектами.

В конце 2017 г. пользователь Reddit под ником deepfakes опубликовал несколько видео с секс-контентом, где лица актрис фильмов для взрослых были заменены лицами знаменитостей, например Тейлор Свифт и Эммы Уотсон. Через небольшое время после этого автор также опубликовал не только результат работы алгоритмов, но и программу, позволяющую тренировать нейросетевые модели и создавать ролики с замененными лицами самостоятельно. К весне 2018 г. ролики стали настолько массовыми, что крупные платформы, такие как Reddit и Twitter, запретили контент такого типа.

Также по теме