читайте также
Последние изменения в области развития искусственного интеллекта (ИИ) свидетельствуют о наступлении нового времени, когда с минимальными усилиями кто угодно сможет сфабриковать документы, фотографии, аудиозаписи, видео и онлайн-профили. С ИИ высококачественные фальшивки можно будет изготовить с помощью автоматизированных средств и без существенных расходов, и это грозит разрушительными последствиями для демократии, национальной безопасности и общества в целом. Как исследователь ИИ я хотел бы первым поднять тревогу и предложить частичное решение.
В феврале угроза подделки документов с применением механизмов ИИ вышла на новый уровень: исследовательская компания OpenAI анонсировала GPT-2, генератор текста на базе ИИ, позволяющий получать настолько правдоподобный материал, что инструмент сочли слишком опасным для открытого выпуска ввиду возможных злоупотреблений. Образцы текста, составленного GPT-2, выглядят пугающе «достоверно», как если бы их написал человек. К сожалению, будут появляться и еще более мощные инструменты, и их могут взять в оборот разные неблагонадежные лица.
Автоматизированный подлог уже прижился в социальных медиа, это видно, например, по опыту американских выборов 2016 года. Как сообщала The Washington Post, в последние месяцы перед президентскими выборами в США в 2016 году Twitter обнаружил десятки тысяч автоматизированных аккаунтов, связанных с Россией. По оценкам Facebook*, в период с января 2015 по август 2017 года фейки, распространявшиеся российскими ботами, потенциально могли достичь охвата в половину американского электората (126 млн из 250 млн избирателей).
Я призывал принимать меры, которые бы обязывали раскрывать ботов, и с июля 2019 года в штате Калифорния в силу вступил соответствующий закон. Это важный шаг, но в международном цифровом законодательстве его влияние невелико.
Проблема гораздо шире, и ботами она не исчерпывается. Поддельные фотографии уже ни для кого не новость, а последние достижения в сфере обработки изображений позволяют создавать крайне реалистичные фальшивые видео. Исследователи недавно продемонстрировали эти новые возможности на примере сгенерированного искусственным интеллектом видеообращения, сделанного якобы от лица бывшего президента США Барака Обамы с наложением речи, на самом деле позаимствованной из аудиофрагментов. Затем появились deepfake-материалы — сгенерированные с помощью ИИ видео пугающей правдоподобности с полностью измененными выражениями лица персонажа в кадре, сфабрикованными методом совмещения двух образов. Эта технология переноса черт лица вполне доступна; ее даже начали применять в порнографической продукции — появилось большое количество роликов с вмонтированными лицами знаменитостей. Ставшее вирусным видео, в котором Обама предостерегает об опасности deepfake-материалов, само оказалось фейком.
Чтобы исключить подлог, логично проверить источник распространения материала. Но веб-сайт, адрес электронной почты и даже идентификаторы телефонного звонка можно легко подделать или сымитировать. Я убедился в этом на собственном опыте, когда однажды услышал входящий вызов и, проверив, от кого он, увидел, что я звоню сам себе! Как говорится, «в интернете никто не узнает, что ты собака» — из этого популярного изречения важно сделать вывод, что нельзя быть уверенным в происхождении или авторстве большинства получаемых электронных писем, сообщений в соцсетях и даже телефонных входящих. Наша интернет-слепота создает почву для «фишинга» — кибератак, преследующих цели выманить у пользователя пароли, номер кредитной карты или другие персональные данные с помощью замаскированных сообщений из якобы надежного источника. Сегодня фальшивые автоматически сгенерированные фишинговые тексты легко распознать, но скоро с развитием искусственного интеллекта ситуация изменится.
Исторически в качестве критерия подлинности в обществе принято было ставить на документы подпись. Более пяти тысяч лет назад для подтверждения написанного шумеры пользовались замысловатыми печатями на глиняных табличках. С повсеместным распространением грамотности отметки, печати, знаки эволюционировали в рукописный текст; упоминания о подписи документов появляются на протяжении всей истории.
В интернете используются цифровые подписи. Это компьютерный (основанный на криптографии) метод подтверждения того, что сообщение не было искажено после его подписания. Сервисы вроде DocuSign позволяют заверять цифровой подписью контракты. В автоматизированных сообщениях между сайтами также может использоваться этот метод, но нельзя сказать, что он широко применяется для удостоверения авторства электронных сообщений, постов в соцсетях, фотографий, видео и тому подобного.
Угроза распространения ИИ-мошенничества требует активных действий: нужно принимать меры, чтобы сделать цифровую подпись обязательной для подтверждения подлинности цифрового контента. Во-первых, необходимо сертифицировать подписи — это может быть функцией центральных государственных органов, либо же можно воспользоваться более демократичными компьютерными методами (блокчейном и шифрованием). Во-вторых, важно максимально отладить механизм использования и последующей верификации подписи. Функция цифровой подписи должна быть предусмотрена в программах электронной почты, текстовых редакторах, камерах смартфонов и любого другого источника цифрового контента. В браузерах, приложениях соцсетей и прочем программном обеспечении в сфере медиа должно отображаться, подписан ли контент, и если да, то кем. Наконец, и эта часть, возможно, наиболее затруднительная, нужно популяризировать новую норму, согласно которой любой незаверенный документ будет считаться потенциально сфабрикованным. Мы не принимаем чеки, на которых нет подписи, — то же самое правило должно применяться к цифровому материалу.
Естественно, необходимо сохранить возможность для соблюдения анонимности, так чтобы цифровые подписи не стали инструментом в борьбе с инакомыслием или средством противодействия тем, кто может обнародовать важную информацию о злоупотреблениях и нарушениях. Более того, необходимо разрешить использование псевдонима на случай, если автор захочет скрыть свою личность, но при этом все равно должна быть возможность идентифицировать его как определенное лицо или организацию.
Цифровые подписи не помешают боту выдавать себя за человека, но бот не сможет выступать от вашего лица и распространять информацию, автором которой вы не являетесь. Компьютерные методы поддержки надежных цифровых подписей существуют, однако они недостаточно просты для широкого применения. Пока не поздно, нужно запустить упрощенный механизм заверения электронной подписью — «в ноль кликов» — сообщений электронной почты, постов в соцсетях, документов, изображений, видео и даже телефонных звонков.
Об авторе. Орен Этциони (Oren Etzioni) — исполнительный директор Института Аллена по изучению искусственного интеллекта (Allen Institute for Artificial Intelligence), преподаватель факультета компьютерных технологий Вашингтонского университета и партнер в Madrona Venture Group.
* принадлежит Meta, которая признана в России экстремистской и запрещена