Создатели фейковых новостей переходят на искусственный интеллект

Голая неправда

На днях разгорелся скандал, который на первый взгляд имеет мало общего с политикой. Через пять дней после запуска разработчики сервиса DeepNude, который создает поддельные фотографии обнаженных женщин с помощью нейросети, вынуждены были закрыться. Спрос оказался слишком велик, а примерами того, как похожую технологию могут использовать создатели фейк-ньюз, уже обеспокоен весь мир.

newstes.ru

Каждый скандал вокруг поддельных новостей прибавляет работы Марку Цукербергу — главе Facebook. Социальная сеть с 2 миллиардами пользователей стала одной из главных платформ для распространения медиафальшивок. Сейчас перед Цукербергом новый вызов: на днях он заявил, Facebook вырабатывает политику в отношении deepfakes (дипфейков). С технической точки зрения сервис DeepNude — один из генераторов подобных подделок.

В чем суть? С помощью искусственного интеллекта программой синтезируются фото и, что сейчас вызывает больше всего беспокойства, видео. Нейронные сети способны наложить внешность Барака Обамы, Дональда Трампа или любого другого человека на другую личность. Сами по себе дипфейки — явление не новое, они существуют уже несколько лет. Но до сравнительно недавних пор основной сферой их применения была порнография. В сети есть поддельные порноролики с актрисами Эммой Уотсон, Кэти Перри, Скарлетт Йоханссон и другими. Качество таких клипов по мере обучения нейросети быстро улучшается: сейчас человеческому глазу их почти не отличить от настоящих.

— Технологии выводят индустрию фейк-ньюз на новый уровень. Процесс создания фальшивок ускоряется, а отличить их от настоящих новостей неподготовленной аудитории все сложнее, — объясняет политолог Вадим Боровик. — Уже сам по себе формат видео вызывает больше доверия и выглядит привлекательнее для пользователей. Чем чревато использование подобных технологий для массовой дезинформации? Допустим, злоумышленники могут сгенерировать видео, где кто-то из авторитетных деятелей заявляет о скором дефиците определенных товаров или дает пессимистичный экономический прогноз. Если вовремя не принять контрмеры, это может привести к ажиотажу, реальному дефициту на рынке и даже обвалу национальной валюты.

Как с этим бороться? Пока вопрос о судьбе искусственных роликов вводит в замешательство даже руководство Facebook. Первая волна обсуждений пронеслась еще в конце мая. Тогда в соцсетях разлетелся ролик с политическим оппонентом Дональда Трампа — спикером Палаты представителей Конгресса США Нэнси Пелоси, где она выглядит так, будто находится в состоянии наркотического опьянения. «Умельцы» его доработали без участия искусственного интеллекта: это так называемый чипфейк, когда немного меняют первоначальную запись. В случае с конгрессменом «монтажеры» замедлили скорость показа на 25% и изменили голос Пелоси. Когда правда вскрылась, Facebook пометил ролик как ложную информацию и понизил приоритет публикации, в то время как YouTube запись удалил, а Twitter никак не отреагировал.

Сейчас ученые и коммерческие организации занимаются разработкой программ, которые позволят автоматически определять следы цифрового манипулирования в видео. Вадим Боровик говорит, что бороться с фейк-ньюз непросто:

— Здесь можно провести аналогию с борьбой с терроризмом, где работают спецслужбы и делают это тихо и незаметно. За пять минут до теракта работать уже поздно. Если ничего не происходит — значит, задачи выполняются. В то же время в этот процесс активно должно вовлекаться и общество. Все знают, что нужно сообщать о бесхозных вещах в людных местах. Точно так же принципом должна стать проверка новостей из сомнительных источников. Как минимум стоит посмотреть, есть ли эта новость на главных страницах авторитетных СМИ. Общество само должно прийти к пониманию необходимости регулирования. Ответственность за умышленное распространение заведомо ложной информации будет увеличиваться. Еще одно важное направление — совершенствование технических средств, применяемых определенными нашими структурами. Это в том числе вложение в будущее: очевидно, что потребление информации в интернете будет только расти.

В ТЕМУ

Инженеры Samsung разработали говорящие головы, сгенерированные из одного изображения: искусственный интеллект может заставить «заговорить» Мону Лизу или, к примеру, Мэрилин Монро. А с декабря прошлого года благодаря открытому Nvidia коду сделать фотоподделку можно без специальных знаний. Пока этим занимаются чаще ради развлечения, создавая лица несуществующих людей. Как отмечает Business Insider, количество сайтов с поддельными фото стремительно растет.

gavrusheva@sb.by
Полная перепечатка текста и фотографий запрещена. Частичное цитирование разрешено при наличии гиперссылки.
Заметили ошибку? Пожалуйста, выделите её и нажмите Ctrl+Enter