Идеалы для роботов | Большие Идеи

・ Феномены

Идеалы
для роботов

Рецензия на книгу «Совместимость. Как контролировать искусственный интеллект»

Автор: Екатерина Вишневецкая

читайте также

Навыки, которые помогут вам сменить профессию

Кристофер Боу

Управление гиперростом

Изосимов Александр

Чего многие не знают об эмоциональном интеллекте

Дэниел Гоулман

Укрощение сложности

Анна Левина,  Мартин Ривз,  Саймон Левин,  Томас Финк

Рецензия на книгу Стюарта Рассела «Совместимость. Как контролировать искусственный интеллект». Альпина нон-фикшн, 2021.

Каждый из нас уверен, что сейчас машины им не управляют. Когда вы читаете этот текст, вы независимы и самостоятельны. Машины очень умны, но они точно не могут поддерживать интересный разговор, учитывать все факторы и приказывать человеку. Человек сам знает, что ему делать. Мы точно не в научно-фантастическом романе с неприятным развитием событий.

А с массами людей дело обстоит так же? Возьмем, к примеру, работу авиалиний. Сначала компьютерам поручили рассадку пассажиров, составление расписаний полетов и графиков техобслуживания, затем они стали помогать менеджерам справляться со всякого рода нестыковками. Теперь же компьютеры разруливают все проблемы сами, меняя маршруты и графики работы персонала, перебронируя места и переназначая даты ремонта самолетов.

Все это было призвано улучшать экономику авиакомпании и клиентский опыт пассажиров. Вопрос, однако, в том, остаются ли компьютерные системы инструментом для людей или, наоборот, люди становятся инструментом для них, уже не имеющим сколько-нибудь полного представления о том, как работает вся система. Когда в апреле 2018 года произошел диспетчерский сбой, искусственный интеллект не нашел ничего лучшего, кроме как сильно задержать или вообще отменить 15 тыс. рейсов в Европе.

Профессор Стюарт Рассел, вместе с Питером Норвигом написавший учебник по ИИ, по которому учатся студенты 1400 университетов 128 стран, обратился к человечеству с очередной книгой-предостережением. Ее русский перевод вышел в издательстве «Альпина» под названием «Совместимость. Как контролировать искусственный интеллект». В ней профессор говорит о том, как будут строиться наши отношения с искусственным интеллектом, когда он намного опередит естественный и сумеет справиться с задачами, которые нам не по зубам. С точки зрения Рассела, в недалеком будущем машины будут обладать всей информацией, доступной человечеству. К этому стоит подготовиться заранее, ведь как только это произойдет, ИИ несомненно сможет принимать решения лучше, чем мы. За несколько тысячелетий благодаря своему интеллекту люди построили цивилизацию. Получив доступ к более сильному интеллекту, мы имеем шанс построить лучшую цивилизацию — если не совершим ошибок.

Станет ли это моментом триумфа или величайшего поражения человечества? Книга Рассела — полемика с теми, кто утверждает, что опасности нет или она преувеличена. Один из главных вопросов книги: какая стратегия в ближайшие десятилетия поможет человечеству избежать будущего, которое может обернуться крахом цивилизации.

Катастрофой, по определению автора, будет существование, которого большинство людей не хотело бы для себя. Для начала автор задается вопросом о том, насколько вероятно, что человечество заметит наступление этого катастрофического будущего. Рассматривая его фантастические сценарии, мы приписываем ИИ человеческие свойства, опасаясь, что он каким-то образом подчинит себе людей. По мнению автора, на проблему надо смотреть с другой стороны. Какими бы умными ни стали машины, они не будут людьми, даже если бы мы этого захотели, что, по словам Рассела, «приводит к их объективной слабости при моделировании и предсказании поведения одного специфического класса объектов — людей».

Наши с вами мозги очень похожи, и поэтому ими можно уверенно пользоваться для того, чтобы моделировать — или, если угодно, переживать — умственную и эмоциональную жизнь другого. «Мне не нужно быть специалистом по нервным сенсорным системам, чтобы знать, что вы чувствуете, попав молотком по своему пальцу. Машины же должны практически с нуля учиться понимать людей», — пишет Рассел. Из-за этого любая поставленная человеком задача видится ИИ совсем не так, как нам. Человек хочет ее выполнения, но не любой ценой, а с учетом ограничений, известных только ему. Отличительная человеческая черта — непоследовательность предпочтений. Мы непредсказуемы, капризны и изменчивы, постоянно стремимся к счастью, которое сами не можем определить.

Автор предлагает рассмотреть теорию «благотворного ИИ», который будет постепенно узнавать нас и которому мы сможем доверять. Термин «благотворный ИИ» становится более понятен, когда Стюарт Рассел рассматривает новые «законы робототехники» — по аналогии со знаменитыми законами Азимова.

Первый состоит в том, что все усилия ИИ должны быть направлены на то, чтобы выполнять задачи для людей, быть человечным.

Второй — о том, что ИИ не знает людей и всех их предпочтений, поэтому должен постоянно изучать разного рода выборы и решения, принимаемые человеком.

Третий — о том, что источником постоянно обновляемой информации о наших предпочтениях для ИИ должны быть наши действия.

Главная проблема сосуществования с ИИ — его стремление выполнить задачу во что бы то ни стало, в то время как наши желания разнонаправленны. Ключ к ее решению — в том, чтобы система никогда не приобрела абсолютной уверенности относительно наших предпочтений и полного знания о поставленной задаче.

Заставив каждого ИИ-помощника подчиняться конкретному человеку и подстраиваться под его предпочтения, мы рискуем создать хаос. Чтобы создать максимальный комфорт для «своего» человека, ИИ будет красть для него деньги и отключать «вражеские» приборы.

Действия лояльных машин будут ограничиваться законами, но и это не полностью защитит человечество от недобросовестных пользователей. Если же мы попытаемся создать универсальные правила для ИИ, мы столкнемся с проблемой навязывания общих этических убеждений разным группам людей. Рассмотрение вариантов решения этой проблемы — одна из самых захватывающих глав в книге. Важно, чтобы «машины изучали и выполняли нынешние предпочтения нынешних людей, — великого множества разных людей — а не один идеализированный комплекс предпочтений или же предпочтения разработчиков машин, возможно, давно умерших», — пишет Рассел.

Поскольку целью человека является комфортная и хорошая жизнь, а представления о ней до сих пор не определены и расплывчаты, автор предлагает срочно заняться созданием новой фундаментальной дисциплины — изучением счастья. Необходимо подготовить соответствующих специалистов, которые помогут людям побороть чувство бессилия и научат их наслаждаться жизнью. Рассел убежден, что нельзя медлить и с решением вопроса о востребованности и занятости большинства людей, потому что иначе мы рискуем обречь себя на зашкаливающее социально-экономическое неблагополучие. В целом решение проблемы «жизни при ИИ», как представляется, носит культурный, а не технический характер. «Нам придется переформировать наши предпочтения — в направлении автономии, способности к деятельности и знаниям, прочь от сибаритства и зависимости… Это будет означать конструирование человеческих предпочтений в мировом масштабе и радикальные изменения в принципах функционирования нашего общества».

Об авторе. Екатерина Вишневецкая — соучредитель «Нашей школы».