Правда, ИИ, ложь | Большие Идеи

・ Технологии
Статья, опубликованная в журнале «Гарвард Бизнес Ревью Россия»

Правда,
ИИ, ложь

Способны ли алгоритмы решить, кому стоит доверять

Автор: Дэвид Де Кремер

Правда, ИИ, ложь
C. J. BURTON/GETTY IMAGES

читайте также

«Вы отрубаете ему руку»: как зарабатывать на проблемных активах в России

Дмитрий Мигель

Читайте майский номер HBR Россия

Ирина Голуб: Язык до бизнеса доведет

Фалалеев Дмитрий

Алексей Мордашов: как Индустрия 4.0 меняет управление

Алексей Мордашов

Организации все активней используют искусственный интеллект и алгоритмы для управления бизнес-процессами, найма сотрудников и автоматизации рутинных организационных решений. И это неудивительно, поскольку применение простых линейных алгоритмов продемонстрировало свое превосходство над человеческим суждением в точности выполнения многих административных задач. Опрос компании Accenture в 2017 году показал, что 85% руководителей хотят в течение следующих трех лет более активно инвестировать в технологии, связанные с ИИ.

Несмотря на этот прогноз, реальность такова, что, по крайней мере, в некоторых случаях люди проявляют сильное чувство отторжения к использованию автономных алгоритмов. Например, опросы показывают, что 73% американцев сообщили, что боятся ездить на автомобиле с автоматическим управлением. Врачи также предпочтительнее алгоритмов в медицинском контексте, с точки зрения пациентов, несмотря на доказательства того, что алгоритмы иногда могут поставить более точные диагнозы. Такое неприятие создает рабочие ситуации, в которых внедрение ИИ приводит к неоптимальному, неэффективному и предвзятому использованию алгоритмов. Поэтому, раз уж ИИ суждено стать важным инструментом управления в наших организациях, алгоритмы необходимо использовать как надежных советников для принимающих решения людей. Они также должны способствовать укреплению доверия в компании.

Этот вывод не остался незамеченным в деловых кругах. Некоторые компании, в том числе Trust Science, выпустили на рынок алгоритмы, которые могут помочь составить профили надежности отдельных лиц и организаций. Но неужели ИИ обладает таким «социальным» навыком? Это важный вопрос, потому что доверие требует особой социальной чувствительности, которая приписывается исключительно человеку. Фактически уникальная способность понимать человеческие эмоции и желания является необходимым условием для оценки надежности личности, и такую способность трудно создать искусственно. Итак, могут ли люди, принимающие решения, принять алгоритмы, предоставляющие рекомендации в этой области человеческого взаимодействия?

Чтобы изучить этот вопрос, мы провели экспериментальное исследование через онлайн-систему Prolific Academic (ProA), которая заслужила себе хорошую репутацию, обеспечивая высокий уровень качества данных. Мы проанализировали ответы 136 участников (68 женщин и 66 мужчин со средним опытом работы 8,73 года), которые участвовали в онлайн-моделировании организации, состоящей из трех иерархических уровней: рядовых сотрудников, среднего звена и высшего руководства. Участники были назначены на рядовые должности и были проинформированы, что будут сотрудничать с неким неизвестным человеком для совместной работы над задачей. В случае хороших результатов бюджет проекта будет увеличен.

Затем участники получили информацию о будущем коллеге — оценку уровня его надежности. Уровень надежности личности определялся одним из двух способов. При первом способе оценка надежности производилась алгоритмом. В этом варианте участникам показали веб-сайт компании, продающей алгоритмы, разработанные для предоставления рекомендаций о надежности людей, и объяснили, что такой алгоритм будет использоваться в эксперименте. Второй способ оценки уровня надежности личности включал 15-минутную беседу между главой исследования и будущим неизвестным коллегой.

Наши результаты показывают, что, по мнению людей, человек и алгоритм хороши в предоставлении разных типов информации, в том числе и в вопросе доверия. Считается, что люди лучше пользуются интуицией, лучше владеют социальными навыками и лучше воспринимают взгляды другого человека. Но алгоритмы могут предоставить информацию о том, кому доверять, в тех случаях, когда эта информация менее интуитивна и основана на фактах. Другими словами, по мнению участников, по сравнению с ИИ люди обладают более подходящими навыками для того, чтобы в социальных взаимодействиях услышать позицию других людей. В поддержку этой идеи участники также оценили алгоритм как более рациональный и менее интуитивный подход при оценке надежности личности. Впрочем, они также выразили мнение, что, если алгоритм сможет предоставить информацию о надежности человека, то это не заставит их усомниться в надежности, достоверности и точности такой информации по сравнению с информацией, которую предоставил бы человек.

Таким образом, несмотря на то, что люди располагают необходимыми социальными навыками для оценки чьей-либо надежности, сами они не считают, что использование алгоритма позволит выявить менее надежную информацию о социальном доверии. Этот вывод был также подтвержден следующим наблюдением: когда участников просили указать, какой метод оценки они предпочитают использовать, большинство предпочло использовать ИИ (61%), а не суждения человека (39%).

Затем участники были случайным образом распределены на две группы: в одной группе надежность нового коллеги определял алгоритм, а в другой — участвующий в эксперименте человек. Мы также манипулировали сведениями, доведенными до участников: половина участников узнавала, что их новый рабочий партнер получил высокую степень доверия, в то время как другой половине участников эксперимента сообщали, что их партнер характеризуется низкой степенью доверия. Затем участники в паре со своим новым коллегой должны были сыграть в игру на доверие. Участники получили рабочий бюджет размером 10 единиц (каждая единица стоила 2 пенса) и должны были решить, сколько единиц они хотели бы передать своему новому коллеге. Количество отданных единиц было утроено. Затем коллега решал, сколько единиц вернуть. Количество отданных обратно единиц не утраивалось. Таким образом, обе стороны могли заработать больше, увеличивая рабочий бюджет, но добиться этого можно было только при условии доверия своему новому коллеге.

Как и ожидалось, когда у нового коллеги была высокая надежность, участники передавали ему больше единиц бюджета. Как ни странно, но источник информации о надежности человека — алгоритм или человек — не повлиял на доверительное поведение участников. Это наблюдение дополнительно подтверждает вывод, что по мнению людей, рациональный метод оценки ИИ меньше подходит для оценки надежности личности, чем оценка человека.

Каковы последствия этих изысканий для организаций?

Во-первых, многие командные проекты часто носят временный характер и требуют объединения не знакомых между собой сотрудников. В таких условиях доверие должно быть построено быстро. Для этого люди считывают отличительные особенности коллеги, например, предыдущие места его работы, название должности или любую другую информацию, которую легко получить и проанализировать. Такой тип построения доверия не вызывает эмоций и приводит к тому, что называется «быстрое доверие». Наши результаты показывают, что для упрощения получения такого рода «когнитивной» информации о надежности человека ИИ представляет собой надежный и правомерный инструмент оценки. Более того, использование ИИ для такого рода быстрой оценки сокращает время, необходимое сотрудникам для знакомства с профессиональным опытом друг друга.

Во-вторых, такие социальные навыки, как способность видеть общую картину, интуиция и социальная чувствительность, являются необходимыми условиями для определения чьей-либо надежности и считаются исключительно человеческими способностями. Тем не менее наши результаты указывают: когда дело доходит до начала рабочих отношений с коллегой, алгоритмы представляются одинаково надежным источником информации.

Однако важно подчеркнуть, что мы рассмотрели начальную фазу отношений, когда люди все еще не знакомы друг с другом. Предыдущие исследования показали, что в таком случае люди больше полагаются на когнитивную информацию, которая собирается рациональным и, следовательно, менее эмоциональным образом. Таким образом, ИИ хорошо подходит в качестве источника информации о надежности на начальных этапах рабочих отношений. Когда отношения развиваются, люди начинают больше руководствоваться эмоциями, которые ИИ пока не в состоянии анализировать. Таким образом, мы утверждаем, что в контексте укрепления доверительных рабочих отношений в долгосрочной перспективе прогнозируемое влияние человеческих суждений возрастет (а влияние оценок ИИ уменьшится).

В-третьих, внедрение ИИ в качестве помощника по созданию доверительной рабочей культуры подразумевает, что организациям необходимо будет обучать людей, контролирующих эту культуру. Такие руководители должны научиться чувствовать, когда использование ИИ эффективно, а когда не нужно делегировать оценку рабочего климата алгоритму. Наконец, руководители также должны научиться передавать предоставляемую ИИ информацию своим командам таким образом, чтобы ее нельзя было проигнорировать.

Об авторах

Дэвид Де Кремер (David De Cremer) — преподаватель в Кембриджской бизнес-школе, соучредитель исследовательской платформы One Belt One Road в Кембридже и приглашенный профессор в Школе бизнеса HSBC Пекинского университета. До переезда в Великобританию был преподавателем менеджмента в China Europe International Business School в Шанхае. Автор книг «Pro-active Leadership» и «Huawei. Лидерство, корпоративная культура, открытость».

Джек МакГайр (Jack McGuire) — руководитель лаборатории экспериментальной и поведенческой экономики (CEBEG) Кембриджского университета, научный сотрудник факультета управления организацией и принятия решений в Кембриджской школе бизнеса.

Йорк Хессельбарт (Yorck Hesselbarth) — студент программы PhD в сфере управления, принятия решений и искусственного интеллекта, в настоящее время работает в бизнес-школе ESCP Europe в Берлине.

Ке Майкл Май (Ke Michael Mai) — доцент факультета менеджмента и организации в NUS Business School при Национальном университе Сингапура.