Технологии
Статья, опубликованная в журнале «Гарвард Бизнес Ревью Россия»

Друг или враг: что ждать человечеству от искусственного интеллекта и роботов

Джон Маркофф

От редакции. Стоит ли бояться роботов и компьютеров? Помогут ли они миллиардам людей на Земле или превратятся для них в одну из главных опасностей? На эти и другие вопросы отвечает книга Джона Маркоффа «Homo Roboticus? Люди и машины в поисках взаимопонимания», русский перевод которой выходит этим летом в издательстве «Альпина нон-фикшн». Мы публикуем один из самых интересных отрывков из нее.

Выбор пути, по которому пойдет развитие искусственного интеллекта…, налагает огромную ответственность на два сообщества разработчиков, описанных в этой книге. Когда Стив Джобс собирал команду инженеров, которая должна была вдохнуть новую жизнь в мир персональных компьютеров с помощью Lisa и Macintosh, он ясно видел цель. Джобс думал о компьютерах как о «велосипеде для разума». Персональные компьютеры, первоначально предложенные небольшой группой инженеров и провидцев в 1970-е годы, оказали огромное влияние на экономику и современные трудовые ресурсы. Они расширяли возможности каждого человека и высвобождали творческий потенциал людей в глобальном масштабе.

Три десятилетия спустя робототехнический проект Энди Рубина в Google также осуществляется небольшой группой инженеров, создающих самых современных роботов. Рубин начал работу со столь же ясной, хотя и существенно отличающейся целью. Когда он начинал скупать технологии и специалистов, которые должны были ввести Google в мир робототехники, ему казалось, что 10–15 лет достаточно для достижения значительного прогресса в самых разных областях робототехники — от шагающих машин до манипуляторов и сенсорных систем. В его воображении двуногие роботы Google выпрыгивали из автомобилей Google и доставляли пакеты к крыльцу заказчиков.

Сегодня в равной мере можно как включить людей в компьютерные системы, так и исключить их. Дальнейшее развитие и искусственного интеллекта, и средств усиления интеллекта заставит робототехников и ученых-компьютерщиков выбирать, как будут выглядеть системы на рабочих местах и в окружающем нас мире. Хотим мы этого или нет, но скоро нам придется сосуществовать с автономными машинами.

Разработчик программного обеспечения и консультант автомобильного проекта Google Брэд Темплтон как-то заметил: «Робот станет действительно автономным, когда вы прикажете ему идти на работу, а он решит отправиться на пляж». Это замечательная фраза, в которой самосознание соединяется с автономностью. Сегодня машины начинают действовать без значимого вмешательства людей или на уровне независимости, которую можно считать автономностью. Это ставит трудные вопросы перед разработчиками интеллектуальных машин. Однако по большей части инженеры игнорируют этические проблемы, возникающие при использовании компьютерных технологий. Лишь изредка сообщество исследователей искусственного интеллекта поддается дурным предчувствиям.

На проходившей в Атланте в 2013 году конференции Humanoids, посвященной разработке и применению антропоморфных роботов, робототехник из Технологического института Джорджии Рональд Аркин обратился к аудитории со страстной речью под названием «Как НЕ создать Терминатора». Он напомнил собравшимся, что к своим трем знаменитым законам Азимов позднее добавил фундаментальный «нулевой» закон робототехники, который гласит: «Робот не может причинить вред человечеству или, бездействуя, допустить, чтобы человечеству был причинен вред». Обращаясь более чем к 200 робототехникам и специалистам по искусственному интеллекту из университетов и компаний, Аркин призвал более глубоко задуматься о последствиях автоматизации. «Все мы знаем, что соревнования [DARPA Robotics Challenge ] проходят с прицелом на чрезвычайные ситуации под девизом “найти и уничтожить”, — сказал он сардонически, добавив: Простите, я имел в виду девиз “найти и спасти”»…

«Если вы хотите создать Терминатора, то продолжайте делать свое дело не задумываясь и вы получите именно такое устройство, — сказал Аркин. — Но миру вокруг нас не все равно, какие будут последствия у того, что мы создаем».

Вопросы и проблемы автоматизации вышли за пределы технического сообщества. В оставшемся незамеченным открытом отчете Пентагона «Роль автономности в оборонных системах» авторы обратили внимание на этические проблемы автоматизации боевых систем. Военные уже напрямую сталкиваются с противоречиями, связанными с автономными системами вроде дронов и приближением к грани, за которой вопросы жизни и смерти уже будут решать не люди… Действительно, технологии все более интеллектуального и автоматизированного оружия спровоцировали новую гонку вооружений. Добавление недорогого интеллекта к системам вооружений угрожает изменить баланс сил между странами. Когда Аркин завершил свое выступление в величественном здании Медицинской академии в Атланте, одним из первых ему ответил директор DARPA Robotics Challenge Гилл Пратт. Он не стал опровергать точку зрения Аркина, а подтвердил, что роботы — технология двойного назначения. «Очень легко критиковать роботов, которых финансирует Министерство обороны, — сказал он. — Очень легко нарисовать робота, который похож на Терминатора, но, поскольку все вокруг нас имеет двойное назначение, это ничего не меняет. Если вы создаете робота для здравоохранения, то вам придется сделать его более автономным, чем робота-спасателя для работы в чрезвычайных ситуациях».

Передовые технологии всегда вызывали вопросы относительно двойного назначения. В наши дни искусственный интеллект и автономность машин привели к переосмыслению этой проблемы. До сих пор технологии двойного назначения прямо требовали от людей принятия этических решений относительно их использования. Автономность машин или отдаляет принятие этических решений человеком, или полностью исключает его.

У нас уже есть примеры, когда ученые и инженеры в других областях задумывались о потенциальных последствиях того, что они делают, и многие из них вставали на защиту человечества. В феврале 1975 года, например, нобелевский лауреат Пол Берг призвал элиту новой тогда биотехнологии встретиться в конференц-центре Асиломар в Пасифик-Гроув, Калифорния. В то время рекомбинантная ДНК, полученная добавлением новых генов в ДНК живых организмов, была последним достижением. Оно одновременно сулило глобальный прогресс в медицине, сельском хозяйстве и новых материалах и открывало страшную возможность ненамеренного уничтожения человечества в результате появления новых микроорганизмов. Встреча ученых привела к экстраординарному решению. Группа рекомендовала молекулярным биологам воздерживаться от определенных видов исследований и приостанавливать исследования для поиска путей обеспечения безопасности. Для мониторинга отрасли биотехнологи создали независимый комитет в Национальном институте здравоохранения. За десятилетие удалось собрать достаточно данных, чтобы снять ограничения на исследования. Это был яркий пример разумного подхода общества к оценке последствий научного прогресса.

По примеру биологов в феврале 2009 г. группа исследователей искусственного интеллекта и робототехников также встретилась в Асиломаре, чтобы обсудить развитие отрасли. Встречу созвал исследователь из Microsoft Эрик Хорвиц, президент Ассоциации развития искусственного интеллекта. В предыдущие пять лет предметом обсуждения у исследователей в этой области были два тревожных сигнала. Один поступил от Рэя Курцвейла, объявившего об относительно скором появлении компьютерного сверхинтеллекта. Основатель Sun Microsystems Билл Джой также рисовал мрачную картину развития искусственного интеллекта. Он опубликовал статью в журнале Wired, где детально описывал трио технологических угроз: робототехнику, генную инженерию и нанотехнологию. Джой полагал, что эти области исследований создают тройную угрозу выживанию человечества, и не видел очевидного решения.

Встретившиеся в Асиломаре исследователи искусственного интеллекта предпочли действовать менее осторожно, чем их предшественники биотехнологи. Группа светил в области компьютерной науки и робототехники, включая Себастьяна Труна, Эндрю Ына, Мануэлу Велосо и Орена Этциони, нынешнего директора Института исследований искусственного интеллекта Пола Аллена, в целом отвергла возможность появления сверхинтеллекта, который превзойдет людей, а также предположение, что искусственный интеллект может спонтанно возникнуть в интернете. Они согласились, что уже разрабатываются способные убивать автономные роботы, но их отчет, появившийся к концу 2009 года, оказался довольно спокойным. Искусственный интеллект еще не достиг того момента, когда он превращается в непосредственную угрозу. «На встрече 1975 года речь шла о моратории на исследования рекомбинантной ДНК. Контекст совещания американской Ассоциации развития искусственного интеллекта был совершенно иным. Эта область демонстрирует довольно успешное, устойчивое развитие, однако исследователи искусственного интеллекта открыто выражают разочарование прогрессом, недостаточно быстрым с учетом существующих надежд и ожиданий», — написали авторы итогового отчета о встрече.

Полная версия статьи доступна подписчикам на сайте