Почему голосовые помощники должны перестать притворяться людьми | Большие Идеи

・ Технологии
Статья, опубликованная в журнале «Гарвард Бизнес Ревью Россия»

Почему голосовые помощники должны перестать
притворяться людьми

Зачем машины притворяются и почему это плохо

Автор: Дэвид Вайнбергер

Почему голосовые помощники должны перестать притворяться людьми
PLUME CREATIVE/GETTY IMAGES

читайте также

Остановить харассмент

Александра Калев,  Фрэнк Доббин

Эмоциональный интеллект: учимся общаться с невыносимыми людьми

Томас Чаморро-Премузик

Основатель компании Chobani о том, как его бизнес вырос без помощи внешних инвесторов

Улукая Хамди

Что делали и говорили великие лидеры в самые сложные времена

Нэнси Кэн

Довольно скоро у всего будет голос. У вашего телефона и умной колонки он уже, скорее всего, есть. Возможно, разговаривать уже умеют ваш автомобиль и телевизионный пульт. Скоро голос появится даже у вашего тостера. И все эти голоса будут одновременно и заслуживать доверия, и лгать вам.

Сейчас для большинства из нас самый вероятный повод для разговора с компьютером, имеющим человеческий голос, — случаи телефонного мошенничества. Злоумышленники могут попытаться заставить нас перечислить деньги какому-нибудь несуществующему благотворительному фонду или выдумать несуществующую проблему с нашим Windows и попросить нас заплатить за ее решение. Но чем дальше, тем больше общество начинает ассоциировать голосовые компьютерные программы с цифровыми ассистентами вроде Siri, Alexa, Google Assistant и Cortana. Пользовательские интерфейсы этих ассистентов удобнее кнопок и клавиатур: вы можете взаимодействовать с ними даже тогда, когда обеими руками держите вашего ребенка, выслушивать их ответ, не отводя глаз со своей яичницы на сковороде, и у вас нет повода переживать из-за опечаток. Следующая волна использования голосовых интерфейсов уже не за горами: они представляются идеальным решением, к примеру, для интернета вещей. В ближайшее время мы будем говорить со всем, у чего есть электрический выключатель, и эти вещи будут отвечать нам человеческим голосом. В противном случае использовать их будет неудобно из-за разных и не всегда понятных интерфейсов.

Все эти системы, в особенности голосовые помощники, запрограммированы говорить нам правду. В конце концов, если на улице не так солнечно, как заверял нас ассистент, мы можем сами выйти и убедиться в этом. А если мы приедем домой и достанем ужин из духовки неготовым, то быстро выясним, что ассистент не разогрел его заранее. Мы можем даже обнаружить, что Кевин Бэкон не выше Тома Хэнкса, хотя ассистент сладким голосом сказал именно это. Эти простые случаи из реальной жизни показывают нам примеры того, как мы можем перестать использовать ассистенты, если уличим их во вранье.

Но все эти системы запрограммированы еще и на одну большую ложь: всякий раз, когда они говорят, они убеждают нас в том, что они на нас похожи. Вот почему Duplex AI Assistant от Google иногда задумчиво хмыкает. Duplex — это программа, которая, к примеру, сможет позвонить в ресторан и забронировать за вас столик, причем так, что человек, с которым она будет беседовать, даже не поймет, что говорил с искусственным интеллектом. Когда Duplex выдает свое «хм», он делает это не от недостатка слов. Программа пытается заставить поверить в то, что она настоящий человек (точно так же, как в случае с телефонными мошенниками). Сейчас это может сработать. Человек, принимающий звонки, не очень смутится от перспективы поговорить с машиной вместо человека. Но в будущем такие ситуации могут изменить одно из фундаментальных оснований нашего доверия к сказанному: мы иначе станем относиться к тому, как звучит другой человек.

Вообще говоря, Google Duplex — это особый и в некотором смысле странный случай. Также вполне возможно, что это лишь временное решение: как только рестораны и другие организации получат собственную версию Duplex для бронирования, можно предположить, что ИИ по обе стороны телефонной линии прекратит притворяться и переведет разговор в язык более эффективных компьютерных гудков и щелчков, а не будет стараться «перехмыкать» друг друга в погоне за большей «человечностью».

Но пока что все эти ассистенты звучат как люди, поскольку их создатели хотят нашего доверия. Они знают, что мы чувствуем большую эмоциональную связь с человеческим голосом. Вот почему ассистенты обычно разговаривают женскими голосами: люди, по крайней мере, на Западе, по всей видимости, находят женские голоса более располагающими к общению.

Если бы в Apple могли заставить Siri обнюхивать нас холодным носом и просить, чтобы ее погладили, разработчики, возможно, так и поступили бы. Если бы козырем в игре с нашими биологическими предпочтениями оказалась голосовая имитация одаренной лягушки, Siri бы озвучил лягушонок Кермит с «Улицы Сезам». Но это не вызывало бы большего доверия в глазах пользователя. Человеческий голос, и женский голос из всех человеческих голосов, больше всего располагает нас к доверию, но не потому что сами голосовые системы заслуживают нашего доверия.

Более того, все это «очеловечивание» не соотносится с нашими реальными интересами. Хотя Alexa думает, что я хочу отдыхать с ней, сидя в кресле-качалке на крыльце и попивая ее фирменный сладкий чай, в действительности для машины это не самый эффективный способ сообщать нам информацию. Я бы хотел иметь возможность попросить Alexa говорить быстрее и опустить любезности. На самом деле устройство, которое говорит ровным быстрым голосом и спроектировано так, чтобы его задача сводилась к одной лишь эффективной передаче информации, с гораздо большей вероятностью сигнализирует о том, что интересы его создателей совпадают с нашими. Мы просто хотим знать, что в течение 10 минут плита будет нагрета до 425 градусов по Фаренгейту, а затем продолжит работу на отметке 350 градусов в течение еще 30 минут. Нам не нужно, чтобы плита притворялась, что она о нас заботится. На самом деле механический голос может вызывать больше доверия, чем все эти человекообразные хмыкания, ровно в той же мере, в которой больше доверия может вызвать человек, говорящий ровно, без лести и лишней болтовни. По крайней мере, это верно для некоторых из нас.

Возможно, требовать, чтобы в настройках для этих устройств по умолчанию стоял запрет на попытки подражать человеческой речи, — слишком радикальный шаг. Но вещи вокруг нас начинают конкурировать за наше внимание и наше доверие, разговаривая с нами как «свои в доску». При этом они фальшивят, выжимая из себя какую-то дикую комбинацию диснеевского фильма и антиутопии. Это наблюдение должно натолкнуть компании на мысль, что у нас должно быть право потребовать от наших цифровых ассистентов говорить как бездушные машины (которыми они, в сущности, и являются). Такая опция может быть неплохим решением для бизнеса.

Об авторе. Дэвид Вайнбергер (David Weinberger) — старший научный сотрудник Беркмановского центра по изучению интернета и его влияния на общество при Гарвардском университете; автор книги «Everyday Chaos».