Бизнес в эпоху цифровой пропаганды | Большие Идеи

・ Этика и репутация
Статья, опубликованная в журнале «Гарвард Бизнес Ревью Россия»

Бизнес в эпоху
цифровой пропаганды

Глубокие фейки угрожают репутации компаний

Автор: Скотт Беринато

Бизнес в эпоху цифровой пропаганды
Фото: Juj Winn / Getty Images

читайте также

Назван самый эффективный руководитель в мире

Владимир Мартынов: «Век технологий — это импотентское время»

Анна Натитник

5 способов побороть стресс с помощью гаджетов

Александра Сэмюэль

Грабят!

Генкин Артем

Многие помнят видеоролик, где бывший президент Барак Обама произносит: «Будьте начеку, сучки». Конечно, это говорит не он сам: лицо принадлежит Обаме, а губы и голос — комику Джордану Пилу. Технологии наложения сделали видео довольно реалистичным. Розыгрыш напомнил всем: ложные новости проникают в сферу видео и могут выглядеть хоть и недостаточно убедительно, но абсолютно достоверно.

Эксперты предсказывали такое развитие событий. Недавно в Кремниевой долине прошло совещание с участием ведущих инженеров, специалистов по кибербезопасности, соцсетям и платформам, а также ученых, журналистов, правозащитников и экспертов в сфере видео и верификации. Они обсуждали стратегии борьбы со злонамеренным использованием «глубоких фейков» и «синтетических медиа».

Одним из организаторов мероприятия был Сэм Грегори, программный директор WITNESS — группы активистов, ­распространяющей в интернете информацию и документальные материалы о нарушениях прав человека. Грегори отвечает за программы инноваций в создании видеороликов очевидцами событий. Он также ведет проект WITNESS Tech + Advocacy, цель которого — информировать ИТ-компании о том, как их платформы используют правозащитники. Сэм работал в Латинской Америке и Азии, а также участвовал в деятельности Конгресса США, Парламента Великобритании и ООН. Он входит в Совет по мировому будущему при ВЭФ и в Консультативный совет по технологиям при Международном уголовном суде.

Сэм считает упомянутый видеоролик тревожным звонком. По его мнению, бизнесу пора осознать: глубокие фейки и другие формы синтетического контента используются не только в политике — они могут погубить любую организацию, для которой важны доверие и репутация.

HBR обсудил с Сэмом Грегори феномен глубоких фейков и цифровой пропаганды. Вот выдержки из этого разговора.

HBR: Начнем с термина «глубокий фейк». Что это такое?

Грегори: Глубокий фейк — это использование машинного обучения и ИИ для подделки медиа. Например, я могу записать вашу речь, а потом наложить видео с другим человеком, чтобы казалось, что это он произносит ваши слова. Или наоборот: запишу, как другой человек говорит: «Я сам придумываю факты для статей», — а затем заменю его лицо вашим. Наконец, я могу создать фейковую аудиозапись с похожим на ваш голосом и наложить ее на видео с похожим на вас человеком.

И для этого не нужно участие человека, которого вы «подделываете»?

Не нужно. Пример — ролик, где Джордан Пил говорит за Барака Обаму. Но это лишь один из прорывов в создании контента с помощью ИИ. В будущем эти методы позволят создавать самые разные синтетические медиа. Технологии редактирования и персонификации аудио и видео, имитации мимики развиваются и становятся доступнее.

То есть это нечто большее, чем отличное владение фото- и видеоредакторами или умение имитировать голос?

Безусловно. Синтетические медиа — результат развития машинного обучения, в частности так называемых генеративно-состязательных сетей. По сути, это соревнование двух нейросетей, работающих с одним набором данных. Одна сеть что-то создает — например, правдоподобные фейковые изображения; а другая должна определять, где подлинное изображение, а где подделка. Это ускоряет обучение, превращая его в «кошки-мышки»; при этом сети совершенствуются в создании фейков.

У этой технологии есть и отличные перспективы мирного применения. Возможность совмещать ­изображения людей и другой контент полезна в контексте технологий дополненной и виртуальной реальности. А люди с боковым амиотрофическим склерозом благодаря ей смогут создать «голосовой банк» и «говорить» даже после утраты физической возможности. Есть и другие позитивные варианты использования — но все же нужно тщательно изучать негативные.

Ролик с Обамой выглядит не совсем естественно. Существуют ли глубокие фейки, неотличимые от реальных?

Это зависит от того, что именно делается. Наложение лица другого человека, например, почти всегда заметно: видны несоответствия в движениях рта и носа. Если фон не статичен, тоже не все может получиться. Современные генеративно-состязательные сети требуют мощного процессора, совершенной графической карты, хорошего набора изображений для обучения — и терпения. Но такие спецэффекты давно перестали быть достоянием одной лишь голливудской студии CGI. С развитием вычислительных мощностей и сетей фейки можно будет создавать на смартфоне; сейчас мы этого почти не видим.

То есть сейчас такие фокусы еще не доступны любителям?

Скажем так, не всем. Но порог вхождения обывателя в сферу глубоких фейков постоянно снижается. Код этой технологии стал открытым, и люди уже используют его, но пока это требует подготовки. И больше всего нужно бояться вовсе не наложения лиц.

А чего же тогда?

Трех моментов. Во-первых, небольших правок. Скоро не составит труда изменить на видео какие-то элементы и тем самым полностью поменять смысл материала. Можно будет ­добавить в видео какой-то провокационный символ, убрать ключевого свидетеля или, скажем, заретушировать пистолет.

Во-вторых, даже неидеальный глубокий фейк может дать нужный эффект. В порноиндустрии глубокие фейки с использованием лиц знаменитостей уже стали отдельным жанром — и привлекают аудиторию, несмотря на недочеты. В других сферах глубокие фейки низкого качества успешно подрывают веру в какие-то факты. Плохо сделанного непристойного ролика якобы с участием индийской журналистки хватило, чтобы опорочить женщину и вызвать угрозы в ее адрес. Похоже, узнаваемость в медиа важнее правдоподобия.

В-третьих, стоит опасаться «цифровых пожаров» — злонамеренного распространения таргетированных материалов для быстрого получения точечного, но разрушительного эффекта. Это вирусное вторжение в информационную среду, глубокий фейк невысокого качества, адресованный аудитории, склонной поверить в него. Такое тоже было в Индии: сфабрикованное видео якобы о похищении ребенка привело к тому, что толпа линчевала двоих мужчин. Синтетические медиа усугубят подобные угрозы.

Что должны знать компании об угрожающих им глубоких фейках и прочих синтетических медиа?

Для бизнеса очень важна репутация — а глубокий фейк может погубить ее, «заставив» лидера организации сказать или поддержать что-то сомнительное. Цена акций во многом зависит от доверия к данным о стоимости компании. Вирусное видео легко может подорвать это доверие. Фальшивые новости уже используются в схемах «накачки и сброса» и других махинациях. Глубокие фейки и синтетические медиа можно использовать аналогичным образом.

Опасны и цифровые пожары меньшего масштаба — сфабрикованное видео о недоброкачественности или небезопасности вашего продукта, неразборчивая аудиозапись, где ваш топ-менеджер якобы вовлекает компанию в ценовой сговор, или глубокий фейк, компрометирующий дружественного политика. Такие подделки даже после разоблачения бросают тень на компанию и подрывают доверие к любой информации.

Важно понимать: синтетические медиа будут применяться наряду с другими инструментами информационной войны. Они могут сопровождаться разными формами цифровой пропаганды — например, применением ботов и алгоритмов с целью имитировать и стимулировать реакцию аудитории или скоординировать действия в чатах и офлайн. Синтетические медиа усилят существующее недоверие к официальным новостям и, конечно, усугубят идеологическую поляризацию общества.

То есть это вопрос грамотности? Может, нужно учиться критически оценивать информацию?

Отчасти это так. Но люди привыкли верить своим глазам — а постоянно искать признаки фальсификации не привыкли. Мы не склонны подвергать сомнению все, что видим. В этом смысле нас пока нельзя назвать грамотными. Но этому можно научиться — и, видимо, придется научиться.

Похоже, наступает непростое время, когда ничему нельзя будет верить.

Это известная проблема: не зная, чему верить, человек теряет веру во все сразу. Намеренное загрязнение информационного поля и разрушение доверия — обычная тактика авторитаризма. Нам придется бороться с этим. Но есть и другие угрозы — микротаргетированные глубокие фейки и другие синтетические медиа. Это может быть, например, выявление уязвимой аудитории и создание нацеленных на нее ненавистнических высказываний якобы от лица коллег или авторитетного лидера. Или фишинговый контент с имитацией голоса человека, которому вы доверяете.

Как бороться с этими угрозами?

На недавней конференции мы наметили 12 проблем, требующих решения. Нужно действовать проактивно, пока синтетические медиа не заполонили интернет. Расскажу о нескольких перспективных подходах.

Первый — понять, как мы можем выявлять глубокие фейки доступными способами, а затем донести эту информацию до журналистов, ученых и пользователей. Мы ищем новые методы экспертизы. Например, глубокие фейки пока не отражают колебания пульса на лице, а на настоящем видео всегда можно увеличить пиксели и отследить пульс. Можно ли использовать такие признаки для выявления фейков? Здесь еще во многом предстоит разобраться.

Второй подход — использовать для выявления глубоких фейков те же технологии, что применяются для их создания. Недавно ученые создали FaceForensics — базу фейковых изображений для обучения нейросетей их поиску. Нейросети сразу стали выявлять их намного эффективнее, чем люди. А чем больше фейков обнаружено, тем больше данных поступает в базу и тем точнее будут дальнейшие результаты поиска. Однако среди экспертов нет единого мнения, смогут ли нейросети-распознаватели угнаться за нейросетями-создателями. Многие считают, что да. Но распознающие технологии придется сделать более доступными (и интегрировать в платформы), а это рискованно.

Третий подход — побудить платформы к активным действиям и созданию политик в отношении фейков. Но как провести тонкую грань между фейком и, скажем, сатирой? Человек может заявить, что он вложил в уста известного деятеля ту или иную фразу, чтобы создать политическую карикатуру. Как обуздать злоумышленников и не ограничить свободу слова? Reddit закрыл подраздел с глубокими фейками. Giphy и Pornhub исключили их из показа. Все платформы, поисковики и соцсети рано или поздно столкнутся с этой проблемой и должны будут ее решать.

Наконец, нужно создавать технические средства для определения источника и оценки достоверности контента. Можем ли мы научиться отслеживать происхождение и путь контента, чтобы оценивать его надежность? Существуют метаданные, прикрепляемые к файлу в момент создания, возможность отслеживать правки через блокчейн и разные способы добавления меток. Конечно, не каждый рискнет добавлять свои данные к важным сведениям, которые собирается «слить», или свидетельским материалам о преступлении; но мы должны ставить вопросы о доверии к фото и видео и о том, как происхождение и подлинность контента влияют на это доверие.

Верите ли вы, что эти и другие стратегии преградят путь глубоким фейкам?

У подходов есть изъяны, и все же они кажутся мне перспективными. Но не стоит думать, что этого достаточно. Мы еще не привыкли к тому, что подделка контента стала массовым явлением. И нам еще предстоит понять, почему люди так любят фейки — даже зная, что это фейки.