Феномены

Идеалы для роботов

Екатерина Вишневецкая

Рецензия на книгу Стюарта Рассела «Совместимость. Как контролировать искусственный интеллект». Альпина нон-фикшн, 2021.

Каждый из нас уверен, что сейчас машины им не управляют. Когда вы читаете этот текст, вы независимы и самостоятельны. Машины очень умны, но они точно не могут поддерживать интересный разговор, учитывать все факторы и приказывать человеку. Человек сам знает, что ему делать. Мы точно не в научно-фантастическом романе с неприятным развитием событий.

А с массами людей дело обстоит так же? Возьмем, к примеру, работу авиалиний. Сначала компьютерам поручили рассадку пассажиров, составление расписаний полетов и графиков техобслуживания, затем они стали помогать менеджерам справляться со всякого рода нестыковками. Теперь же компьютеры разруливают все проблемы сами, меняя маршруты и графики работы персонала, перебронируя места и переназначая даты ремонта самолетов.

Все это было призвано улучшать экономику авиакомпании и клиентский опыт пассажиров. Вопрос, однако, в том, остаются ли компьютерные системы инструментом для людей или, наоборот, люди становятся инструментом для них, уже не имеющим сколько-нибудь полного представления о том, как работает вся система. Когда в апреле 2018 года произошел диспетчерский сбой, искусственный интеллект не нашел ничего лучшего, кроме как сильно задержать или вообще отменить 15 тыс. рейсов в Европе.

Профессор Стюарт Рассел, вместе с Питером Норвигом написавший учебник по ИИ, по которому учатся студенты 1400 университетов 128 стран, обратился к человечеству с очередной книгой-предостережением. Ее русский перевод вышел в издательстве «Альпина» под названием «Совместимость. Как контролировать искусственный интеллект». В ней профессор говорит о том, как будут строиться наши отношения с искусственным интеллектом, когда он намного опередит естественный и сумеет справиться с задачами, которые нам не по зубам. С точки зрения Рассела, в недалеком будущем машины будут обладать всей информацией, доступной человечеству. К этому стоит подготовиться заранее, ведь как только это произойдет, ИИ несомненно сможет принимать решения лучше, чем мы. За несколько тысячелетий благодаря своему интеллекту люди построили цивилизацию. Получив доступ к более сильному интеллекту, мы имеем шанс построить лучшую цивилизацию — если не совершим ошибок.

Станет ли это моментом триумфа или величайшего поражения человечества? Книга Рассела — полемика с теми, кто утверждает, что опасности нет или она преувеличена. Один из главных вопросов книги: какая стратегия в ближайшие десятилетия поможет человечеству избежать будущего, которое может обернуться крахом цивилизации.

Катастрофой, по определению автора, будет существование, которого большинство людей не хотело бы для себя. Для начала автор задается вопросом о том, насколько вероятно, что человечество заметит наступление этого катастрофического будущего. Рассматривая его фантастические сценарии, мы приписываем ИИ человеческие свойства, опасаясь, что он каким-то образом подчинит себе людей. По мнению автора, на проблему надо смотреть с другой стороны. Какими бы умными ни стали машины, они не будут людьми, даже если бы мы этого захотели, что, по словам Рассела, «приводит к их объективной слабости при моделировании и предсказании поведения одного специфического класса объектов — людей».

Наши с вами мозги очень похожи, и поэтому ими можно уверенно пользоваться для того, чтобы моделировать — или, если угодно, переживать — умственную и эмоциональную жизнь другого. «Мне не нужно быть специалистом по нервным сенсорным системам, чтобы знать, что вы чувствуете, попав молотком по своему пальцу. Машины же должны практически с нуля учиться понимать людей», — пишет Рассел. Из-за этого любая поставленная человеком задача видится ИИ совсем не так, как нам. Человек хочет ее выполнения, но не любой ценой, а с учетом ограничений, известных только ему. Отличительная человеческая черта — непоследовательность предпочтений. Мы непредсказуемы, капризны и изменчивы, постоянно стремимся к счастью, которое сами не можем определить.

Автор предлагает рассмотреть теорию «благотворного ИИ», который будет постепенно узнавать нас и которому мы сможем доверять. Термин «благотворный ИИ» становится более понятен, когда Стюарт Рассел рассматривает новые «законы робототехники» — по аналогии со знаменитыми законами Азимова.

Полная версия статьи доступна подписчикам на сайте