Легко ли сработаться с роботом | Большие Идеи

・ Психология
Статья, опубликованная в журнале «Гарвард Бизнес Ревью Россия»

Легко ли сработаться
с роботом

Несмотря на все достоинства ИИ, люди не готовы доверять ему в критических ситуациях

Автор: Курт Грей

Легко ли сработаться с роботом

читайте также

Как приготовить ужин и не сойти с ума: 13 советов очень занятым родителям

Дейзи Вейдман Доулинг

История о мудрости

Стюарт Элла

Проходим аттестацию: отказ от ежегодной оценки — не панацея от всех бед

Грэм Кенни

«Harvard Business Review — Россия» №129: самое интересное

Редакция «HBR — Россия»

ИИ призван принимать решения быстрее и лучше, чем человек (даже самый умный). И на вопросы вроде «Как мне доехать домой?» или «Как выстроить сети дистрибуции?» он действительно отвечает лучше нас. Но стоит ли доверять ему в жизненно важных ситуациях?

Сегодня я изучаю технологии как социальный психолог, но в молодости работал в геофизической разведке. Мы искали месторождения природного газа на севере Канады — в таких труднодоступных местах, куда порой можно добраться лишь на вертолете.

Помню, однажды пилот передал нам по рации дурные вести: поднимается буря, лететь опасно из-за плохой видимости. Руководитель нашего отряда Иэн был поставлен перед сложным выбором: рискнуть ли нам жизнью, вылетев в шторм, или остаться на ночь в зимнем лесу без еды и крова? Он решил переждать. Несмотря на мороз, я доверял решению Иэна. Он много лет тушил лесные пожары и отлично знал науку выживания. Я буквально доверил ему свою жизнь.

Если бы мой работодатель использовал ИИ, груз принятия решений в тот вечер мог бы лечь не на плечи Иэна. Компьютерная программа проанализировала бы прогноз погоды, ущерб от потери специалистов и вертолета, а также множество иных факторов. Умная машина могла бы прийти к тому же выводу (лучше провести ночь в лесу), но вот вопрос: стал бы я доверять этому решению? Чувствовал бы, что я в надежных руках?

Исследования, проведенные мною с тех пор, показывают, что нет. Именно недоверие мешает полноценно внедрять ИИ в вопросах, касающихся людей, даже если нет угрозы жизни.

Я изучал, как люди воспринимают чужое мышление, будь то мышление человека, животного или компьютера. Оказалось, все не так просто. Мы не можем полностью понимать мысли и чувства других, поэтому нам приходится строить догадки. Любят ли нас наши дети так же, как мы их? Если босс улыбается — ему правда все нравится? Стыдно ли собаке, когда ее застают за чем-то нехорошим?

Если даже мысли живых существ трудно понять, то душа компьютера — совсем потемки. Когда Deep Blue обыгрывает Гарри Каспарова в шахматы, что им движет: желание победить или просто программа? Понимает ли Google, подбирая нам маршрут, что такое стоять в пробках? Правда ли Netflix заботится о нас, предлагая список фильмов на будущее?

Люди считают «мышление» ИИ очень ограниченным: способным на мощный анализ, но совершенно бездушным. И это так: при нынешнем уровне развития технологий ни Google, ни Netflix не могут влюбиться или насладиться вкусом шоколада. Но проблема даже не в этом, а в том, что люди уверены: роботы никогда не будут чувствовать. Именно это мешает развитию ИИ (по крайней мере в сфере управления людскими ресурсами).

Во многом из-за этого люди не доверяют алгоритмам. А доверие крайне важно для внедрения технологий. Можно ли верить тому, что видит в нас лишь функциональные единицы с неким набором навыков, а не личности со своими надеждами и страхами?

Чтобы доверять товарищу, нам нужны как минимум три вещи: заинтересованность друг в друге, понимание уязвимости и вера в компетентность. Пожалуй, важнее всего здесь заинтересованность — уверенность, что другим небезразлична твоя судьба. Если командир части, рискуя жизнью, заходит на территорию противника, чтобы спасти раненого солдата, его решение едва ли логично. Но сама его готовность к таким иррациональным поступкам (невозможная для ИИ) внушает всей части большее доверие к командиру и повышает эффективность ее действий.

В ситуациях, касающихся карьеры и продвижения, мы тоже хотим верить, что начальство и коллеги видят в нас не просто переменные в задаче по оптимизации процессов, но и живых людей. Мы не желаем быть просто строкой в таблице — а ИИ воспринимает нас именно так.

Мы не доверяем ему не только из-за отсутствия эмоционального отклика, но и из-за кажущейся неуязвимости. Если человек не справится с задачей, он может лишиться премии, работы — а порой и жизни. Но если системой управляет ИИ, в случае ошибки он не понесет наказания. Он играет судьбами других — но не своей.

Третья слабая сторона ИИ — его сильная сторона: сверхчеловеческая способность просчитывать и предсказывать. Видя, как быстро он делает расчеты или прогнозирует изменения курса акций, легко поверить в его мощь. Но, к сожалению, ИИ демонстрирует хорошие результаты только в строго заданных условиях. Если заставить его работать вне привычных рамок (например, попросить Netflix потрафить вкусам всей семьи или предложить Google предсказать развитие отношений пары влюбленных), разочарование неизбежно.

Недавно я беседовал с сотрудником Управления военно-морских ­исследований Минобороны США, и тот рассказал, как учатся работать с системами ИИ моряки, не имеющие опыта взаимодействия с высокими технологиями. Сначала они смотрят на ИИ с благоговением, думая, что тот способен на все. Потом обнаруживают, что система порой допускает «глупые» ошибки, и перестают использовать ее даже там, где она явно справилась бы лучше человека. Чтобы заслужить доверие пользователей, ИИ должен научиться выражать уверенность в результате, а лучше — показывать страх допустить ошибку.

Нет сомнений, что ИИ уверенно прогрессирует, — но мы все еще мало верим в него. А это необходимо, ведь во многих отраслях успех невозможен без глубокого и явного доверия внутри команды. На нефтяной платформе или во время военных действий вера в товарища жизненно важна. В менее опасных условиях от доверия может зависеть, например, подписание контракта или завершение проекта. Доверять окружающим нас побуждает не их исключительная мудрость (как у ИИ), а наша эмоциональная привязанность к ним.

Это вовсе не значит, что ИИ бесполезен. Совсем наоборот. Он представляет собой своего рода деконструкцию мышления — разум, нацеленный на максимальную эффективность. Он сильно отличается от разностороннего ума человека, способного одновременно понимать язык, решать проблемы и учитывать чувства других.

Попав в геологоразведку сегодня, я, вероятно, не доверил бы компьютеру свою жизнь, но по крайней мере прислушался бы к его анализу погодных условий и совету не выходить в поля в тот день. Мне повезло, что в трудную минуту рядом со мной оказался опытный человек, — но, возможно, будь там еще и ИИ, мы вообще не попали бы в опасную ситуацию.

Об авторе. Курт Грей — профессор психологии и нейробиологии Университета Северной Каролины (Чапел-Хилл).