Бизнес в эпоху цифровой пропаганды | Большие Идеи

・ Этика и репутация
Статья, опубликованная в журнале «Гарвард Бизнес Ревью Россия»

Бизнес в эпоху
цифровой пропаганды

Глубокие фейки угрожают репутации компаний

Автор: Скотт Беринато

Бизнес в эпоху цифровой пропаганды
Juj Winn / Getty Images

читайте также

Как сохранить команду после увольнения ключевого сотрудника

Арт Маркман

Линия обороны от хакеров

Энди Бочман

Следи за собой, будь осторожен

Владимир Рувинский

Как определить, кто лжет

Дэвид ДеСтено

Многие помнят видеоролик, где бывший президент Барак Обама произносит: «Будьте начеку, сучки». Конечно, это говорит не он сам: лицо принадлежит Обаме, а губы и голос — комику Джордану Пилу. Технологии наложения сделали видео довольно реалистичным. Розыгрыш напомнил всем: ложные новости проникают в сферу видео и могут выглядеть хоть и недостаточно убедительно, но абсолютно достоверно.

Эксперты предсказывали такое развитие событий. Недавно в Кремниевой долине прошло совещание с участием ведущих инженеров, специалистов по кибербезопасности, соцсетям и платформам, а также ученых, журналистов, правозащитников и экспертов в сфере видео и верификации. Они обсуждали стратегии борьбы со злонамеренным использованием «глубоких фейков» и «синтетических медиа».

Одним из организаторов мероприятия был Сэм Грегори, программный директор WITNESS — группы активистов, ­распространяющей в интернете информацию и документальные материалы о нарушениях прав человека. Грегори отвечает за программы инноваций в создании видеороликов очевидцами событий. Он также ведет проект WITNESS Tech + Advocacy, цель которого — информировать ИТ-компании о том, как их платформы используют правозащитники. Сэм работал в Латинской Америке и Азии, а также участвовал в деятельности Конгресса США, Парламента Великобритании и ООН. Он входит в Совет по мировому будущему при ВЭФ и в Консультативный совет по технологиям при Международном уголовном суде.

Сэм считает упомянутый видеоролик тревожным звонком. По его мнению, бизнесу пора осознать: глубокие фейки и другие формы синтетического контента используются не только в политике — они могут погубить любую организацию, для которой важны доверие и репутация.

HBR обсудил с Сэмом Грегори феномен глубоких фейков и цифровой пропаганды. Вот выдержки из этого разговора.

HBR: Начнем с термина «глубокий фейк». Что это такое?

Грегори: Глубокий фейк — это использование машинного обучения и ИИ для подделки медиа. Например, я могу записать вашу речь, а потом наложить видео с другим человеком, чтобы казалось, что это он произносит ваши слова. Или наоборот: запишу, как другой человек говорит: «Я сам придумываю факты для статей», — а затем заменю его лицо вашим. Наконец, я могу создать фейковую аудиозапись с похожим на ваш голосом и наложить ее на видео с похожим на вас человеком.

И для этого не нужно участие человека, которого вы «подделываете»?

Не нужно. Пример — ролик, где Джордан Пил говорит за Барака Обаму. Но это лишь один из прорывов в создании контента с помощью ИИ. В будущем эти методы позволят создавать самые разные синтетические медиа. Технологии редактирования и персонификации аудио и видео, имитации мимики развиваются и становятся доступнее.

То есть это нечто большее, чем отличное владение фото- и видеоредакторами или умение имитировать голос?

Безусловно. Синтетические медиа — результат развития машинного обучения, в частности так называемых генеративно-состязательных сетей. По сути, это соревнование двух нейросетей, работающих с одним набором данных. Одна сеть что-то создает — например, правдоподобные фейковые изображения; а другая должна определять, где подлинное изображение, а где подделка. Это ускоряет обучение, превращая его в «кошки-мышки»; при этом сети совершенствуются в создании фейков.

У этой технологии есть и отличные перспективы мирного применения. Возможность совмещать ­изображения людей и другой контент полезна в контексте технологий дополненной и виртуальной реальности. А люди с боковым амиотрофическим склерозом благодаря ей смогут создать «голосовой банк» и «говорить» даже после утраты физической возможности. Есть и другие позитивные варианты использования — но все же нужно тщательно изучать негативные.

Ролик с Обамой выглядит не совсем естественно. Существуют ли глубокие фейки, неотличимые от реальных?

Это зависит от того, что именно делается. Наложение лица другого человека, например, почти всегда заметно: видны несоответствия в движениях рта и носа. Если фон не статичен, тоже не все может получиться. Современные генеративно-состязательные сети требуют мощного процессора, совершенной графической карты, хорошего набора изображений для обучения — и терпения. Но такие спецэффекты давно перестали быть достоянием одной лишь голливудской студии CGI. С развитием вычислительных мощностей и сетей фейки можно будет создавать на смартфоне; сейчас мы этого почти не видим.

То есть сейчас такие фокусы еще не доступны любителям?

Скажем так, не всем. Но порог вхождения обывателя в сферу глубоких фейков постоянно снижается. Код этой технологии стал открытым, и люди уже используют его, но пока это требует подготовки. И больше всего нужно бояться вовсе не наложения лиц.

А чего же тогда?

Трех моментов. Во-первых, небольших правок. Скоро не составит труда изменить на видео какие-то элементы и тем самым полностью поменять смысл материала. Можно будет ­добавить в видео какой-то провокационный символ, убрать ключевого свидетеля или, скажем, заретушировать пистолет.

Во-вторых, даже неидеальный глубокий фейк может дать нужный эффект. В порноиндустрии глубокие фейки с использованием лиц знаменитостей уже стали отдельным жанром — и привлекают аудиторию, несмотря на недочеты. В других сферах глубокие фейки низкого качества успешно подрывают веру в какие-то факты. Плохо сделанного непристойного ролика якобы с участием индийской журналистки хватило, чтобы опорочить женщину и вызвать угрозы в ее адрес. Похоже, узнаваемость в медиа важнее правдоподобия.

В-третьих, стоит опасаться «цифровых пожаров» — злонамеренного распространения таргетированных материалов для быстрого получения точечного, но разрушительного эффекта. Это вирусное вторжение в информационную среду, глубокий фейк невысокого качества, адресованный аудитории, склонной поверить в него. Такое тоже было в Индии: сфабрикованное видео якобы о похищении ребенка привело к тому, что толпа линчевала двоих мужчин. Синтетические медиа усугубят подобные угрозы.

Что должны знать компании об угрожающих им глубоких фейках и прочих синтетических медиа?

Для бизнеса очень важна репутация — а глубокий фейк может погубить ее, «заставив» лидера организации сказать или поддержать что-то сомнительное. Цена акций во многом зависит от доверия к данным о стоимости компании. Вирусное видео легко может подорвать это доверие. Фальшивые новости уже используются в схемах «накачки и сброса» и других махинациях. Глубокие фейки и синтетические медиа можно использовать аналогичным образом.

Опасны и цифровые пожары меньшего масштаба — сфабрикованное видео о недоброкачественности или небезопасности вашего продукта, неразборчивая аудиозапись, где ваш топ-менеджер якобы вовлекает компанию в ценовой сговор, или глубокий фейк, компрометирующий дружественного политика. Такие подделки даже после разоблачения бросают тень на компанию и подрывают доверие к любой информации.

Важно понимать: синтетические медиа будут применяться наряду с другими инструментами информационной войны. Они могут сопровождаться разными формами цифровой пропаганды — например, применением ботов и алгоритмов с целью имитировать и стимулировать реакцию аудитории или скоординировать действия в чатах и офлайн. Синтетические медиа усилят существующее недоверие к официальным новостям и, конечно, усугубят идеологическую поляризацию общества.

То есть это вопрос грамотности? Может, нужно учиться критически оценивать информацию?

Отчасти это так. Но люди привыкли верить своим глазам — а постоянно искать признаки фальсификации не привыкли. Мы не склонны подвергать сомнению все, что видим. В этом смысле нас пока нельзя назвать грамотными. Но этому можно научиться — и, видимо, придется научиться.

Похоже, наступает непростое время, когда ничему нельзя будет верить.

Это известная проблема: не зная, чему верить, человек теряет веру во все сразу. Намеренное загрязнение информационного поля и разрушение доверия — обычная тактика авторитаризма. Нам придется бороться с этим. Но есть и другие угрозы — микротаргетированные глубокие фейки и другие синтетические медиа. Это может быть, например, выявление уязвимой аудитории и создание нацеленных на нее ненавистнических высказываний якобы от лица коллег или авторитетного лидера. Или фишинговый контент с имитацией голоса человека, которому вы доверяете.

Как бороться с этими угрозами?

На недавней конференции мы наметили 12 проблем, требующих решения. Нужно действовать проактивно, пока синтетические медиа не заполонили интернет. Расскажу о нескольких перспективных подходах.

Первый — понять, как мы можем выявлять глубокие фейки доступными способами, а затем донести эту информацию до журналистов, ученых и пользователей. Мы ищем новые методы экспертизы. Например, глубокие фейки пока не отражают колебания пульса на лице, а на настоящем видео всегда можно увеличить пиксели и отследить пульс. Можно ли использовать такие признаки для выявления фейков? Здесь еще во многом предстоит разобраться.

Второй подход — использовать для выявления глубоких фейков те же технологии, что применяются для их создания. Недавно ученые создали FaceForensics — базу фейковых изображений для обучения нейросетей их поиску. Нейросети сразу стали выявлять их намного эффективнее, чем люди. А чем больше фейков обнаружено, тем больше данных поступает в базу и тем точнее будут дальнейшие результаты поиска. Однако среди экспертов нет единого мнения, смогут ли нейросети-распознаватели угнаться за нейросетями-создателями. Многие считают, что да. Но распознающие технологии придется сделать более доступными (и интегрировать в платформы), а это рискованно.

Третий подход — побудить платформы к активным действиям и созданию политик в отношении фейков. Но как провести тонкую грань между фейком и, скажем, сатирой? Человек может заявить, что он вложил в уста известного деятеля ту или иную фразу, чтобы создать политическую карикатуру. Как обуздать злоумышленников и не ограничить свободу слова? Reddit закрыл подраздел с глубокими фейками. Giphy и Pornhub исключили их из показа. Все платформы, поисковики и соцсети рано или поздно столкнутся с этой проблемой и должны будут ее решать.

Наконец, нужно создавать технические средства для определения источника и оценки достоверности контента. Можем ли мы научиться отслеживать происхождение и путь контента, чтобы оценивать его надежность? Существуют метаданные, прикрепляемые к файлу в момент создания, возможность отслеживать правки через блокчейн и разные способы добавления меток. Конечно, не каждый рискнет добавлять свои данные к важным сведениям, которые собирается «слить», или свидетельским материалам о преступлении; но мы должны ставить вопросы о доверии к фото и видео и о том, как происхождение и подлинность контента влияют на это доверие.

Верите ли вы, что эти и другие стратегии преградят путь глубоким фейкам?

У подходов есть изъяны, и все же они кажутся мне перспективными. Но не стоит думать, что этого достаточно. Мы еще не привыкли к тому, что подделка контента стала массовым явлением. И нам еще предстоит понять, почему люди так любят фейки — даже зная, что это фейки.