Подробно о новых видах фальшивок в интернете

Осторожно! Дипфейки!

Вы еще верите собственным глазам?

Политики пьянствуют и почти матерятся. Бизнесмены признаются в преступлениях, а актеры «клеят» себе чужие лица и не пойми что творят. В интернете полно видеороликов, в которых знаменитости делают странные вещи. Однако все это ложь. Дипфейки (от английского deep — «глубокий») — это когда с помощью искусственного интеллекта на реальных видео меняют внешность и голос человека. Обман, понятно, раскроется, но до тех пор может серьезно подпортить нервы и уничтожить карьеру. Эксперты уже назвали дипфейки главным информационным оружием этого года. Как далеко все зашло? Спросим у советника-консультанта Белорусского института стратегических исследований Виталия Демирова.

Виталий Демиров.

Фейки — дело давнее, и пришли они к нам всерьез и надолго, утверждает эксперт. Одни шокируют общественность громкими разоблачениями в газетах, в сети. Другие публикуют не менее сенсационные снимки. Третьи разносят фальшивые новости в мессенджерах, соцсетях. Пару лет назад в Мексике избили и сожгли двоих мужчин из-за распространяемых в Facebook и WhatsApp слухов о том, что якобы эти двое похищали детей. В сообщениях говорилось, мол, будьте начеку, в страну пришел бич — похитители детей. Там же пугали: преступники могут быть замешаны в торговле органами, за последние несколько дней исчезли дети, а их «тела нашли со следами удаленных органов, им вскрыли и выпотрошили животы». Слухи оказались фейком, но разъяренная толпа сделала свое дело, не дожидаясь, пока в ситуации разберутся. Похожая история произошла в тот же период в Индии.

— Попытки манипулирования через информацию известны с давних времен, — напомнил Виталий Демиров. — Это показано, к примеру, в древнекитайском трактате Сунь-Цзы «Искусство войны». В XIII веке до н.э. сражение между Египтом и Хеттским государством закончилось тактической ничьей, однако обе стороны приписали победу себе, о чем начертали на камнях своих дворцов. Все это манипуляции, рассчитанные на то, чтобы направить общественное мнение, поведение толпы в нужное русло. Так было всегда, разница лишь в канале передачи ложных сведений — будь то камень на дворце, газета, видеоэфир или аккаунт в соцсети.

Facebook объявил войну роликам, в которых голоса людей синтезированы с помощью нейросетей. Только за 6 месяцев прошлого года компания удалила 3,2 миллиарда поддельных аккаунтов, за аналогичный период 2018-го — 1,55 миллиарда.
Сейчас набирает популярность другой канал — дипфейки. Для создания таких фейковых видео используют генеративно-состязательные нейросети (GAN). Сначала собирают в открытом доступе фотографии потенциальной жертвы, загружают их в программу, а дальше дело техники. Виталий описывает механизм, стараясь не углубляться в сложные технические подробности: один алгоритм GAN изучает фото и видео с конкретным человеком и самостоятельно создает картинку, конкурируя с другим алгоритмом до тех пор, пока он не станет путать подделку и оригинал. То есть в оригинальном ролике «лицо» одного человека словно маску накладывают на другого. Также с помощью программного обеспечения можно «заставить» жертву произнести нужный текст — здесь программа изучит связи между ртом человека и конкретными словами, когда он их говорит. Надо прилепить лицо к чужому телу? Нейросети сделают это, проанализировав связи между ними.

Вообще, эту технологию в 2014 году разработал студент Стэнфордского университета. А уже через пару лет появились первые жертвы такого изобретения — известные киноактрисы, чьи лица начали «пересаживать» телам порноактрис. Поначалу более 90 процентов дипфейков в интернете приходилось как раз на кино для взрослых. Сейчас технология способна запустись щупальца в чью угодно жизнь, а область применения, как говорит аналитик БИСИ, самая разная.

Одним из вирусных сетевых дипфейк-роликов стало видео, где лицо выступавшей на премии «Золотой глобус» актрисы Дженнифер Лоуренс заменили на лицо ее коллеги по цеху Стива Бушеми. Брюс Ли вдруг стал Нео в «Матрице», а Сильвестр Сталлоне — Терминатором, у Джима Керри вместо Джека Николсона главная роль в «Сиянии». Российскому же актеру Михаилу Ефремову пришлось примерить тела всех «Ангелов Чарли».
Дипфейки уже используют для подрыва репутации, шантажа и мошенничества. В прошлом году у директора британской компании было похищено 220 тысяч евро. Он перевел деньги на счет подставной фирмы, потому что получил устные указания от своего руководителя. На самом деле преступники использовали нейросети для подделки его голоса и даже имитировали нужный акцент.
Аферисты используют дипфейки и в политических целях. Возможности всему миру продемонстрировал автор ролика, где Барак Обама оскорбляет нынешнего президента США. Это была фальшивка. А как вам скандал со спикером палаты представителей конгресса США Нэнси Пелоси, случившийся после появления дипфейк-видео, на котором политик как бы… пьяна? Обман раскрылся не сразу. Известно также видео с Дональдом Трампом, якобы выступавшим против климатических инициатив. Президент США, конечно, ничего такого не говорил: обращение, как выяснилось, заказала бельгийская социалистическая партия для привлечения внимания к проблеме изменения климата.

— Биржевая паника — еще одна цель аферистов, — рассказывает специалист БИСИ. — Предположим, с помощью нейросетей создается ролик с Илоном Маском, на котором он признается, что его компания — банкрот. А потом это видео попадает в сеть. Можно себе представить, какая начнется паника. Еще один яркий пример «глубокого фейка» — видео, где глава Facebook Марк Цукерберг сообщает, будто его компания стала успешной благодаря помощи какой-то секретной организации.

Не возьмутся ли злоумышленники за «корректировку» истории, документальных видеоархивов? Виталий такую перспективу не исключил. Выходит, изготовить информационную бомбу становится все проще, в помощь — развитие технологий. Эксперт института стратегических исследований несколько обнадежил: все же пока технологии создания дипфейков не являются общедоступными и с их помощью непрофессионалу не так легко влиять на общество, как, к примеру, с помощью социальных медиа:

— Сейчас качественные дипфейк-видео все же делают специалисты, компании. Да и стоят ролики немало, нужны серьезное оборудование, практика и много времени. Кроме того, если попытаться заказать услугу в «облаке» (через облачные вычисления) и получить доступ к нужным программам, чтобы самому разработать фейк-видео, то надо понимать, что в сети останутся все цифровые следы пользователя: IP-адреса, ID-узлы, стационарные МАС-адреса устройств и т.д.
Политические дипфейки перед американскими выборами 2020 года уже запретили в Калифорнии и Техасе. Минобороны США заявило о начале разработки программы для обнаружения фальшивок в разном контенте. В Китае распространение фейков считается уголовным преступлением.
Как ни крути, а влияние фальшивок на общество, политику, бизнес может быть слишком велико. Не хочется пугать, но то, что мы видим сейчас, это только начало. По мнению аналитиков, уже через полгода отличить подделку от оригинального видео будет невозможно. В.Демиров не скрывает, что пока нет технических механизмов, которые бы помогли распознавать поддельное видео: «Проблему видят в том числе крупные корпорации Microsoft, Google, Facebook и пытаются бороться с тиражированием фальшивого видеоконтента. Тот же Facebook не более года назад запускал кампанию по созданию наиболее качественных видеороликов по технологии дипфейк и программ, которые бы их распознавали. Анонсировал призовой фонд в 10 миллионов долларов. Пока надежного решения проблемы нет. Это задача для научного сообщества».

 Для того чтобы отличить обман от оригинала, нужна технология аналогичного типа, но более высокого порядка, уверен Виталий. Его прогноз: качество фейковых роликов будет расти, а услуги по использованию прикладного пакета — дешеветь и становиться более доступными. В ряде стран уже всерьез озаботились поиском противоядия дипфейкам, называя их даже возможной угрозой национальной безопасности.

В Беларуси также звучало мнение, что пора как минимум законодательно закрепить понятия фейков и дипфейков, предусмотреть ответственность за их распространение. Также логично было бы обязать, как в Китае, сопровождать поддельное видео специальной отметкой, предупреждающей о том, что сообщение ненастоящее.

gladkaya@sb.by

Фото: БЕЛТА

Полная перепечатка текста и фотографий запрещена. Частичное цитирование разрешено при наличии гиперссылки.
Заметили ошибку? Пожалуйста, выделите её и нажмите Ctrl+Enter