Идеалы для роботов | Большие Идеи

・ Феномены

Идеалы
для роботов

Рецензия на книгу «Совместимость. Как контролировать искусственный интеллект»

Автор: Екатерина Вишневецкая

читайте также

Уйти красиво

Роберт Саттон

Внутренняя мотивация при разработке стратегии развития: пан или пропал

Рон Ашкеназ

Как люксовые бренды создают цифровую роскошь

Ханнес Гурцки

Жестокие игры

Оксана Шевелькова

Рецензия на книгу Стюарта Рассела «Совместимость. Как контролировать искусственный интеллект». Альпина нон-фикшн, 2021.

Каждый из нас уверен, что сейчас машины им не управляют. Когда вы читаете этот текст, вы независимы и самостоятельны. Машины очень умны, но они точно не могут поддерживать интересный разговор, учитывать все факторы и приказывать человеку. Человек сам знает, что ему делать. Мы точно не в научно-фантастическом романе с неприятным развитием событий.

А с массами людей дело обстоит так же? Возьмем, к примеру, работу авиалиний. Сначала компьютерам поручили рассадку пассажиров, составление расписаний полетов и графиков техобслуживания, затем они стали помогать менеджерам справляться со всякого рода нестыковками. Теперь же компьютеры разруливают все проблемы сами, меняя маршруты и графики работы персонала, перебронируя места и переназначая даты ремонта самолетов.

Все это было призвано улучшать экономику авиакомпании и клиентский опыт пассажиров. Вопрос, однако, в том, остаются ли компьютерные системы инструментом для людей или, наоборот, люди становятся инструментом для них, уже не имеющим сколько-нибудь полного представления о том, как работает вся система. Когда в апреле 2018 года произошел диспетчерский сбой, искусственный интеллект не нашел ничего лучшего, кроме как сильно задержать или вообще отменить 15 тыс. рейсов в Европе.

Профессор Стюарт Рассел, вместе с Питером Норвигом написавший учебник по ИИ, по которому учатся студенты 1400 университетов 128 стран, обратился к человечеству с очередной книгой-предостережением. Ее русский перевод вышел в издательстве «Альпина» под названием «Совместимость. Как контролировать искусственный интеллект». В ней профессор говорит о том, как будут строиться наши отношения с искусственным интеллектом, когда он намного опередит естественный и сумеет справиться с задачами, которые нам не по зубам. С точки зрения Рассела, в недалеком будущем машины будут обладать всей информацией, доступной человечеству. К этому стоит подготовиться заранее, ведь как только это произойдет, ИИ несомненно сможет принимать решения лучше, чем мы. За несколько тысячелетий благодаря своему интеллекту люди построили цивилизацию. Получив доступ к более сильному интеллекту, мы имеем шанс построить лучшую цивилизацию — если не совершим ошибок.

Станет ли это моментом триумфа или величайшего поражения человечества? Книга Рассела — полемика с теми, кто утверждает, что опасности нет или она преувеличена. Один из главных вопросов книги: какая стратегия в ближайшие десятилетия поможет человечеству избежать будущего, которое может обернуться крахом цивилизации.

Катастрофой, по определению автора, будет существование, которого большинство людей не хотело бы для себя. Для начала автор задается вопросом о том, насколько вероятно, что человечество заметит наступление этого катастрофического будущего. Рассматривая его фантастические сценарии, мы приписываем ИИ человеческие свойства, опасаясь, что он каким-то образом подчинит себе людей. По мнению автора, на проблему надо смотреть с другой стороны. Какими бы умными ни стали машины, они не будут людьми, даже если бы мы этого захотели, что, по словам Рассела, «приводит к их объективной слабости при моделировании и предсказании поведения одного специфического класса объектов — людей».

Наши с вами мозги очень похожи, и поэтому ими можно уверенно пользоваться для того, чтобы моделировать — или, если угодно, переживать — умственную и эмоциональную жизнь другого. «Мне не нужно быть специалистом по нервным сенсорным системам, чтобы знать, что вы чувствуете, попав молотком по своему пальцу. Машины же должны практически с нуля учиться понимать людей», — пишет Рассел. Из-за этого любая поставленная человеком задача видится ИИ совсем не так, как нам. Человек хочет ее выполнения, но не любой ценой, а с учетом ограничений, известных только ему. Отличительная человеческая черта — непоследовательность предпочтений. Мы непредсказуемы, капризны и изменчивы, постоянно стремимся к счастью, которое сами не можем определить.

Автор предлагает рассмотреть теорию «благотворного ИИ», который будет постепенно узнавать нас и которому мы сможем доверять. Термин «благотворный ИИ» становится более понятен, когда Стюарт Рассел рассматривает новые «законы робототехники» — по аналогии со знаменитыми законами Азимова.

Первый состоит в том, что все усилия ИИ должны быть направлены на то, чтобы выполнять задачи для людей, быть человечным.

Второй — о том, что ИИ не знает людей и всех их предпочтений, поэтому должен постоянно изучать разного рода выборы и решения, принимаемые человеком.

Третий — о том, что источником постоянно обновляемой информации о наших предпочтениях для ИИ должны быть наши действия.

Главная проблема сосуществования с ИИ — его стремление выполнить задачу во что бы то ни стало, в то время как наши желания разнонаправленны. Ключ к ее решению — в том, чтобы система никогда не приобрела абсолютной уверенности относительно наших предпочтений и полного знания о поставленной задаче.

Заставив каждого ИИ-помощника подчиняться конкретному человеку и подстраиваться под его предпочтения, мы рискуем создать хаос. Чтобы создать максимальный комфорт для «своего» человека, ИИ будет красть для него деньги и отключать «вражеские» приборы.

Действия лояльных машин будут ограничиваться законами, но и это не полностью защитит человечество от недобросовестных пользователей. Если же мы попытаемся создать универсальные правила для ИИ, мы столкнемся с проблемой навязывания общих этических убеждений разным группам людей. Рассмотрение вариантов решения этой проблемы — одна из самых захватывающих глав в книге. Важно, чтобы «машины изучали и выполняли нынешние предпочтения нынешних людей, — великого множества разных людей — а не один идеализированный комплекс предпочтений или же предпочтения разработчиков машин, возможно, давно умерших», — пишет Рассел.

Поскольку целью человека является комфортная и хорошая жизнь, а представления о ней до сих пор не определены и расплывчаты, автор предлагает срочно заняться созданием новой фундаментальной дисциплины — изучением счастья. Необходимо подготовить соответствующих специалистов, которые помогут людям побороть чувство бессилия и научат их наслаждаться жизнью. Рассел убежден, что нельзя медлить и с решением вопроса о востребованности и занятости большинства людей, потому что иначе мы рискуем обречь себя на зашкаливающее социально-экономическое неблагополучие. В целом решение проблемы «жизни при ИИ», как представляется, носит культурный, а не технический характер. «Нам придется переформировать наши предпочтения — в направлении автономии, способности к деятельности и знаниям, прочь от сибаритства и зависимости… Это будет означать конструирование человеческих предпочтений в мировом масштабе и радикальные изменения в принципах функционирования нашего общества».

Об авторе. Екатерина Вишневецкая — соучредитель «Нашей школы».