Управление инновациями
Статья, опубликованная в журнале «Гарвард Бизнес Ревью Россия»

Если начальник — робот…

Фрик Уолтер

На конференции «2013 Robotic» научный сотрудник MIT Кейт Дарлинг предложила посетителям поиграть с аниматронными игрушечными динозавриками Плео и придумать им имена. Оказалось, что с Плео очень даже можно общаться: динозаврики жестами и мимикой показывали, что им нравится, когда их гладят, и не нравится, когда их таскают за хвост. Через час Кейт объявила перерыв. Когда «игроки» вернулись, она раздала им ножи и топорики — чтобы поистязать своих динозавриков и разрубить их на куски. Кейт предполагала, что эта идея не вызовет восторга, но, что ее поразило, люди все как один наотрез отказались причинять роботам вред. Кто-то даже заслонил собой динозавриков, защищая их. В докладе на конференции Кейт подвела итог эксперименту: «Эти машины общаются с нами “по-человечески”, и мы воспринимаем их как живых, даже если понимаем, что это не так». Этот вывод будет главным для следующей волны автоматизации. Как писали в своей книге «The Second Machine Age» Эрик ­Бриньольфссон и Эндрю Макафи, думающие машины — от автономных роботов, которые быстро осваивают новые задачи в заводских цехах, до прог­рамм, способных оценить претендентов на те или иные должности или рекомендовать корпоративную стратегию, — заменяя людей, могут создавать колоссальную стоимость для бизнеса и общества (см. интервью с Бриньольфссоном и Макафи в этом номере). Но хотя технологические ограничения исчезают, социальные остаются. Как убедить подчиненных, что искусственному интеллекту можно доверять? Как относиться к роботу в качестве коллеги, а то и начальника? А если вы замените его, как это скажется на общем настроении группы? Чтобы ответить на эти вопросы, надо представлять себе, как люди будут работать и взаимодействовать с думающими машинами. Благодаря исследованиям, которых становится все больше, мы более или менее понимаем, как налаживать сотрудничество машин и людей. Машины эволюционируют, перестают быть просто инструментами, превращаются в членов коллектива, и становится ясно: работать с ними — совсем не то, что просто освоить новую технологию.

Когда мы не доверяем — или доверяем — алгоритмам

При работе с думающими машинами прежде всего важно помнить, что обычно они знают больше нас. В 2014 году исследователи из Уор­тонской школы бизнеса провели несколько экспериментов: добровольцам платили деньги, если они делали точные прогнозы — с помощью алгоритмов либо целиком полагаясь на себя. Например, участникам одного эксперимента показали сведения о студентах, которые те предоставляли при поступлении на курс МВА, и просили оценить, как каждый из них учился. Оказалось, что большинство не воспользовалось алгоритмами, а слушало свою интуицию. Этот феномен — его называют избеганием алгоритмов — зафиксирован в ходе многих исследований. Не важно, о чем идет речь — о медицинском диагнозе или политическом прог­нозе, — люди больше доверяют не алгоритмам, а «человеческому» мнению, своему или чужому, и потому часто принимают не лучшие решения. Отсюда следует важный для управленцев вывод: их главной задачей будет научить подчиненных доверять думающим машинам. Но недостаточно просто доказать людям надежность алгоритмов. Когда исследователи из Уортона показывали добровольцам их оценки, алгоритмические выводы и правильные ответы, те признавали, что алгоритмы давали более ­точные результаты. Но они видели и ошибки алгоритмов. «Люди разочаровывались в алгоритмах, обнаруживая, что они ошибаются, — вспоминает Беркли Диетворст, один из исследователей, — они ошибались чаще алгоритмов, но себе доверять не переставали». То есть за ошибки мы судим алгоритмы строже, чем себя. Диетворст объясняет это так: мы уверены, что человек может изменить свою точку зрения, а вывод алгоритма изменить ­нельзя (хотя это неверно). В работе, которая нам кажется более сложной (или требующей особо тонкой интуиции), чем просто «перемалывание чисел», феномен избегания алгоритмов проявляется еще очевиднее. Исследователи из двух бизнес-школ — Келлога и Гарвардской предложили завсегдатаям крауд­сорсинговой платформы Mechanical Turk несколько заданий. Одним сказали, что их выполнение требует способности осваивать новое и «аналитического мышления», а другим, что главное — «ощущения» и «понимание эмоций». Затем добровольцев спросили, были бы они довольны, если бы подобную работу передали машинам. Предупрежденных об эмоциональном характере работы идея насчет машин задела больше, чем тех, кому ее представили как сугубо аналитическую. «Люди думают так: мыслить — это почти то же самое, что делать расчеты, — предполагает один из авторов исследования Майкл Нортон, сотрудник Гарвардской школы бизнеса. — Для роботов считать — нормально. Но для них совсем не нормально испытывать чувства, потому что это делает их слишком похожими на людей». По мнению Нортона, недоверие к алгоритмам преодолеть просто — надо лишь назвать задачу аналитической. В ходе еще одного эксперимента, который он проводил с Адамом Уэйцем из бизнес-школы Келлога, выяснилась забавная вещь. Люди охотнее признают, что робот может преподавать математику, если им объясняют: «обучение студентов формулам и алгоритмам требует недюжинных аналитических способнос­тей». Те, кому говорят, что преподаватель математики должен «уметь общаться с молодежью», не готовы видеть робота в роли учителя. Диетворст и его коллеги из Уортона предлагали другое объяснение. Если люди свои выводы ценят больше алгоритмических расчетов, то почему бы не объединить первое и второе? Почему бы не дать им возможность чуть изменить вывод алгоритма? Ученые предложили добровольцам определить на основании разнообразной информации, хорошо ли ученик старших классов выполнит стандартную контрольную по математике. Участникам эксперимента не надо было выбирать между двумя оценками — своей и алгоритма; можно было поправить результат алгоритма, прибавив или отняв несколько процентов, и представить итог как собственный вывод. И добровольцы отнеслись к алгоритму более благосклонно. Потому, считает Диетворст, что в таком случае у людей появляется ощущение, будто они самостоятельно делают вывод.

image

Плео — лишь один пример «робототехники для общения». Он общается с помощью жестов и мимики. Ему, например, нравится, когда его гладят, и не нравится, когда его поднимают за хвост. Snackbot развозит по офису закуски, ­разговаривает с сотрудниками и может ­запомнить, какие закус­ки кто предпочитает. У Джима есть голос, и он может жестикулировать, поэтому его воспринимают как разумное существо, хотя на самом деле им управляют исследователи.

Мы больше доверяем роботам, если они внешне похожи на нас

Еще один способ вызвать у людей доверие к думающим машинам — сделать их человекоподобными. Исследования показывают, что если наделить алгоритм голосом и дать машине человекоподобное тело, то люди относятся к ним благожелательнее. Ученые из нескольких университетов изучали эту реакцию на примере самоуправляемых автомобилей. В ходе эксперимента добровольцы пользовались автомобильным тренажером и могли либо сами рулить, либо выбрать беспилотный режим. Автопилот в одних случаях только контролировал направление движения и скорость, в других — обладал некоторыми человеческими чертами: у него было имя (Айрис), женский голос, он умел разговаривать. Если на тренажере был установлен автопилот Айрис, то водители охотнее выбирали беспилотный режим. Кроме того, исследователи запрограммировали ДТП, оно происходило по вине не автопилота, а другого автомобиля. Водители машин, управляемых Айрис, меньше нервничали и реже обвиняли автопилот в том, что из-за него случилось ДТП, чем те, у которых автопилот был без имени и голоса. По мнению исследователей, Айрис люди доверяли больше из-за склонности наделять человеческими свойствами, например способностью думать и чувствовать, все, что не принадлежит к человеческому роду. Исследования показывают, что людям спокойнее работать с человекоподобными машинами. В частности, проще сотрудничать с роботами, когда они встречаются с нами «взглядом». А если они умеют склонять голову набок, то нам кажутся более симпатичными и похожими на людей — помните Плео? Эту идею изучали исследователи из Университета Карнеги — Меллона. У них был робот Snackbot, высотой 1,5 м, с колесами, руками и светодиодным ртом. Он мог говорить мужским голосом, улыбаться и хмуриться. Snackbot развозил по офису закуски, но на самом деле его задумали, чтобы он пробуждал в людях ту самую склонность к очеловечиванию. Как и предполагали исследователи, люди разговаривали с ним и относились к нему добродушно. Кто-то сказал: «Snackbot не испытывает чувств, но я не могу просто взять еду и закрыть перед ним дверь». Робота запрограммировали на «индивидуальные» беседы с отдельными сотрудниками, например на обсуждение их любимых закусок. Людям, к которым Snackbot проявлял внимание, он особенно нравился, и они охотнее откликались, когда он обращался к ним.

Но иногда роботы слишком человекоподобны

Полная версия статьи доступна подписчикам на сайте