Технологии
Статья, опубликованная в журнале «Гарвард Бизнес Ревью Россия»

Разум, ИИ, чувства

Джон Зилли , Марк Пёрди , Омаро Масели
Фото: DON FARRALL/GETTY IMAGES

Какие чувства на самом деле испытывают люди?

Компаниям всегда было сложно ответить на этот вопрос. С одной стороны, эмоции по своей природе трудно считываемы. С другой стороны, часто люди чувствуют одно, а говорят другое.

Рассмотрим, как воспринимаются рекламные ролики во время трансляции Супербоула — финального матча Национальной футбольной лиги. Согласно данным USA Today Ad Meter, в 2018 году телезрители признали лучшей рекламой ролик от Amazon «Alexa теряет голос», где знаменитости пытаются (безуспешно) заменить голосового помощника Alexa. Рекламный ролик диетической колы Groove, в котором женщина выпивает банку Diet Coke Twisted Mango и неуклюже танцует, был признан худшим. На основании этого опроса напрашивается вывод, что реклама Alexa произвела гораздо большее впечатление. По мнению исследователя в области нейробиологии и генерального директора компании Immersion Neuroscience Пола Зака, чья команда изучала нейробиологические аспекты воздействия рекламы, это не совсем соответствует действительности. Команда Зака оценила степень эмоциональной вовлеченности зрителей по изменению уровня окситоцина — «нейробиологического маркера эмоционального резонанса». Исследование показало, что ролик Groove на самом деле оказал большее воздействие. По мнению Зака, это доказывает, что для рекламы во время трансляции Супербоула характерна «нулевая корреляция» между тем, что люди говорят, и тем, что они подсознательно испытывают.

Когда мы обсуждали это явление с Заком, он заметил: «Люди обманывают, но мозг — нет».

Чтобы разобраться, что чувствуют люди, многие компании используют фокус-группы и опросы. Теперь технология эмоционального ИИ может помочь компаниям улавливать эмоциональные реакции в режиме реального времени — например, расшифровывая выражения лица, анализируя образцы голоса, отслеживая движения глаз и измеряя степень нейробиологического отклика. Конечный результат — намного более глубокое понимание клиентов и даже сотрудников.

Риски предвзятости эмоционального ИИ

Из-за субъективной природы эмоций эмоциональный ИИ особенно склонен к предвзятости. Например, одно из исследований показало, что технология эмоционального анализа приписывает больше отрицательных эмоций людям определенной этнической принадлежности. Представьте, каковы могут быть последствия в профессиональной среде, если алгоритм будет систематически определять у человека негативные эмоции, и как это отразится на карьерном росте.

К тому же часто ИИ еще не настолько совершенен, чтобы понимать культурные различия в проявлении и считывании эмоций, что затрудняет точные выводы. Например, улыбка может означать в Германии одно, а в Японии — другое. Смешение этих значений может привести к тому, что компании будут принимать неправильные решения. Представьте себе в магазине в Берлине японского туриста, которому нужна помощь. Если для обслуживания клиентов используется технология распознавания эмоций, то продавец может ошибочно прочитать улыбку — знак вежливости в Японии — как сигнал того, что помощь покупателю не нужна.

Одним словом, если оставить проблему без внимания, осознанные или бессознательные эмоциональные предубеждения могут закреплять стереотипы и предрассудки в беспрецедентных масштабах.

Как бизнесу предотвратить повсеместное распространение ошибочных предрассудков

По опыту наших исследований и работы с глобальными клиентами, компании используют технологию эмоционального искусственного интеллекта для четырех целей. В каждом случае последствия предвзятости алгоритмов явно напоминают о том, что лидеры бизнеса и разработчики технологий должны осознавать существование предрассудков и исключать их проникновение в аналитику.

Оценка эмоциональной вовлеченности сотрудников. Когда ИИ используется для распознавания эмоций сотрудников, это может серьезно повлиять на распределение задач и ролей. Например, работники часто думают, что они «на своем месте», но, принимая участие в новых проектах, могут обнаружить, что их навыки лучше подходят для другой позиции. В некоторых компаниях у сотрудников есть возможность раз в месяц попробовать себя в новом качестве и посмотреть, какая работа им нравится больше. В подобных задачах предвзятость ИИ может закреплять существующие стереотипы. Например, в США, где 89% инженеров-строителей и 81% младших чинов среди полицейских и сотрудников уголовного розыска — мужчины, алгоритм, настроившийся анализировать особенности мужского поведения, может столкнуться с трудностями при считывании эмоциональных реакций и оценке степени вовлеченности принимаемых на службу женщин. Это может привести к ошибочным решениям в профессиональной подготовке и при распределении ролей.

Разработка продуктов, учитывающих эмоции потребителей. С помощью отслеживания эмоций разработчики продукта могут узнать, какие функции больше впечатляют и привлекают пользователей. Возьмем, к примеру, платформу Auto AI от Affectiva, которая способна распознавать, например, радость и гнев, и соответствующим образом изменять атмосферу в салоне автомобиля. С помощью камер и микрофонов система может уловить, что пассажира клонит в сон и в ответ понизит температуру или резко усилит натяжение ремня безопасности. Умный помощник заговорит по-другому, если пассажир расстроен. Возможности эмоционального ИИ позволяют проектировать изменяемое качество клиентского опыта для любого продукта или услуги — будь то в салоне автомобиля или где угодно. Но адаптивные системы с искажениями будут неверно интерпретировать некоторых пассажиров. Например, пожилые люди с большей вероятностью могут быть ошибочно идентифицированы как уставшие (чем старше человек, тем меньше вероятность того, что выражения его лица будут декодированы точно). А поскольку подобные системы получают все более широкое распространение, скоро и страховым компаниям понадобятся соответствующие данные. Это в свою очередь может вылиться в более высокие страховые взносы для пожилых, ведь система будет показывать, что, несмотря на многократные призывы передохнуть, водитель продолжал управлять автомобилем.

Совершенствование инструментов для оценки удовлетворенности клиентов. Такие компании, как бостонский стартап Cogito, предоставляют бизнесу инструменты для повышения качества работы с клиентами. Такие алгоритмы способны не только определять «усталость от сочувствия» у специалистов по обслуживанию клиентов, но и подсказывать им ответы на вопросы звонящих через приложение. Расстроенный клиент, например, может обратиться с жалобой на продукт. Записывая и анализируя беседу, платформа Cogito предложит агенту замедлить темп разговора или подскажет, когда следует проявить сочувствие. Искажения алгоритма, например, в восприятии акцента или низкого тембра голоса, могут привести к тому, что с кем-то из покупателей общаться будут менее обходительно, и таких клиентов бизнес может потерять. К звонящему мужчине могут проявить меньше сочувствия, чем к женщине, что дополнительно будет усиливать общее восприятие мужчин как «эмоционально сильных». С другой стороны, обратившуюся в компанию покупательницу могут расценить как менее жесткого переговорщика, и в результате ей будет предложена меньшая компенсация. Примечательно, что сами агенты могут даже не иметь никаких предубеждений, но будут ошибочно во всем полагаться на предполагаемую точность алгоритмов. Тем самым искажения будут закрепляться — беспрепятственно и систематически.

Полная версия статьи доступна подписчикам на сайте