Как алгоритмы могут стать справедливее любого HR-специалиста | Большие Идеи

・ Технологии
Статья, опубликованная в журнале «Гарвард Бизнес Ревью Россия»

Как алгоритмы могут стать справедливее
любого HR-специалиста

Что нужно знать об использовании ИИ в работе с кадрами

Авторы: Бен Даттнер , Томас Чаморро-Премузик , Фрида Полли

Как алгоритмы могут стать справедливее любого HR-специалиста
Фото: Tianyi Ma/Unsplash

читайте также

Насилие: смена парадигмы

Федюкин Игорь

Ваш профессионализм зависит от умения объективно оценивать себя

Майкл Шрейдж

Как оставаться востребованным всю жизнь

Александр Лазуткин

«Хватит ныть!»: чего нельзя говорить коллегам в трудной ситуации

Дебора Грейсон Ригель

Искусственный интеллект изменил все сферы нашей жизни: мы привыкли к тому, что крупные компании вроде Amazon и Alibaba теперь курируют наш покупательский опыт, а Youtube и Netflix продвигают новый контент с помощью персональных рекомендаций. Однако в области управления рабочей средой инструменты ИИ все еще находятся на ранней стадии развития. Особенно это касается кадровой политики. Если привести понятную аналогию, сейчас ИИ в рабочей сфере пока еще можно сравнить с модемным интернетом-доступом. Эра WiFi 5G еще не наступила, но мы не сомневаемся, что рано или поздно это случится.

Безусловно, есть множество версий относительно того, на что искусственный интеллект способен, а на что — нет, равно как и мнений о том, что именно можно считать ИИ. Однако в войне за таланты ИИ играет совершенно определенную роль: он нужен, чтобы предоставлять организациям более точные и эффективные прогнозы о вероятном поведении кандидата в рабочей среде и его производительности. В отличие от таких традиционных инструментов рекрутинга, как рекомендательные письма, резюме и личные собеседования, ИИ способен находить закономерности, невидимые человеку.

Во многих ИИ-системах в качестве эталона успешности и продуктивности в той или иной должности выступают реальные люди. Так называемая «обучающая выборка» часто формируется из показателей руководителей и сотрудников, которых принято считать наиболее производительными. Системы искусственного интеллекта обрабатывают и сравнивают данные разных соискателей с «эталонным» работником, чей образ был создан на основе анализа данных из обучающей выборки. В результате ИИ выдает представителям компании вероятностную оценку того, насколько характеристики соискателя соответствуют характеристикам идеального сотрудника.

Теоретически этот метод можно использовать, чтобы максимально быстро и эффективно подбирать подходящих кандидатов на подходящие им позиции. Однако, как вы, возможно, уже поняли, здесь есть и свои риски. Если набор данных для обучения достаточно разнообразен, для анализа используются данные без искажения по демографическому признаку, да и сами алгоритмы тоже не подвержены каким-либо искажениям, такая техника может выправить человеческую склонность к предубеждениям и повысить степень разнообразия и социально-экономический инклюзии, как никогда не удавалось никому из нас. Но если обучающая выборка, сами данные или все вместе взятое искажены, а алгоритмы недостаточно отточены, ИИ только усугубит проблему предвзятости и однотипности решений при приеме на работу.

Чтобы усовершенствовать методы управления кадрами и в полной мере воспользоваться возможностями и потенциалом ИИ, мы должны сместить акцент с разработки более этичных систем для управления персоналом на разработку более этичного ИИ. Конечно, полностью исключить искажения в работе ИИ нелегко. В реальности это очень и очень сложно. Но наша позиция основана на убежденности, что проще отучить от предрассудков искусственный интеллект, чем людей.

Когда дело доходит до поиска подходящего сотрудника, большинство организаций по-прежнему полагаются на интуицию. Рекрутеры за секунды сканируют резюме и тут же решают, оставить кандидата или сразу отсеять. Менеджеры по найму персонала быстро выдают суждения о людях и называют это «интуицией» или не обращают внимания на сухие факты и нанимают людей по принципу соответствия корпоративной культуре. Проблема усугубляется еще и отсутствием прозрачных и объективных показателей эффективности. Кроме того, обучение сотрудников для преодоления невольных предубеждений, которым в последнее время занимается все больше компаний, часто оказывается неэффективным, а порой может и усугубить ситуацию. Зачастую в рамках таких тренингов личным предрассудкам уделяется слишком много внимания, а структурным предубеждениям, сужающим круг и без того недостаточно представленных категорий потенциальных работников, — слишком мало.

Критики утверждают, будто искусственный интеллект немногим лучше людей, но они часто забывают, что подобные системы отражают наше собственное поведение. Мы с готовностью накидываемся на ИИ за его прогнозы, что белые мужчины получат более высокие оценки производительности от своих руководителей (возможно, тоже белых мужчин). Но ведь так происходит потому, что это нам не удалось исключить предвзятость в оценках производительности, которые часто включаются в обучающие выборки. Мы приходим в ужас от того, что ИИ может принимать предвзятые решения о найме на работу, но легко соглашаемся жить в мире, где те же предрассудки управляют решениями реальных людей. Возьмем к примеру Amazon. За недовольством по поводу предвзятого механизма рекрутинга в компании мы не заметили неопровержимых доказательств того, что нынешние способы найма, практикуемые людьми, в большинстве организаций приводят к гораздо худшим результатам. Это как если бы невысокий уровень смертности при участии беспилотных автомобилей тревожил вас больше, чем то, что в ДТП, спровоцированных уставшими, отвлекшимися, а то и вовсе пьяными водителями, гибнет по 1,2 млн человек в год.

На самом деле мы с большей вероятностью можем повлиять на точность и справедливость ИИ-систем, чем на рекрутеров и менеджеров по найму сотрудников. Люди быстро учатся, а вот переучиваются с большим трудом. Нашу предвзятость часто определяют те же самые когнитивные механизмы, которые день за днем помогают нам выживать в этом мире. Мир слишком сложен, чтобы мы могли все время логически и целенаправленно его осмысливать. Если бы мы так делали, то были бы постоянно перегружены информацией и не могли бы принять даже простого решения о покупке кофе (в конце концов, почему вы должны доверять незнакомому бариста?). Вот почему легче обеспечить беспристрастность данных и точность обучающих выборок, чем изменить способ мышления Сэма и Салли, в чьем случае мы не можем ни полностью устранить предвзятость, ни получить распечатку всех переменных, влияющих на их решения. По сути, проще настроить ИИ-алгоритмы, чем понять и изменить человеческое мышление.

Чтобы сделать это, организации, использующие ИИ в области управления кадрами на любом этапе работы, должны начать со следующих шагов.

1) Информируйте кандидатов и получайте их согласие. Просите потенциальных сотрудников присоединиться к программе или предоставить свои персональные данные и согласиться на их анализ, хранение и использование системами ИИ в процессе принятия кадровых решений. Будьте готовы объяснять, что, кто, зачем и почему. Системы ИИ не должны полагаться на модель черного ящика. Если у кандидата есть характеристики успешного исполнителя для рассматриваемой позиции, представители компании должны не только понять, откуда берется такой результат, но и суметь объяснить причинно-следственные связи. В общем, ИИ-системы должны быть спроектированы так, чтобы предсказывать и объяснять, а не только находить корреляции. Организация также должна обеспечивать анонимность кандидата, защищать персональные данные и соблюдать Общий регламент по защите данных, закон о конфиденциальности штата Калифорния и аналогичные нормативные своды.

2) Инвестируйте в системы, оптимизирующие одновременно справедливость и точность выбора. Организационные психологи давно говорят о том, что, когда при оценке кандидатов во главу угла ставится справедливость, точность таких решений снижается. Например, многие академические исследования показывают: несмотря на то что с помощью тестов на когнитивные способности можно заведомо оценивать эффективность работы, особенно если речь идет о работе высокой сложности, применение таких методик отрицательно влияет на малопредставительные категории соискателей, особенно на людей с низким социально-экономическим статусом. Это значит, что организации, заинтересованные в разнообразии и развитии инклюзивной культуры, часто преуменьшают значение традиционных когнитивных тестов при найме новых сотрудников, чтобы не ставить кандидатов в заведомо невыгодное положение. Это известный компромисс между справедливостью и точностью.

Однако строится он на техниках полувековой давности, появившихся задолго до развития моделей ИИ, способных обрабатывать данные совсем иначе, чем их традиционные аналоги. Появляется все больше свидетельств тому, что ИИ может преодолеть этот компромисс за счет применения более динамичных и персонализированных алгоритмов оценки, чувствительных как к точности, так и к справедливости. Таким образом, у разработчиков ИИ нет причин не развивать подобные системы. Кроме того, поскольку эти новые системы уже существуют, мы должны задаться вопросом, можно ли без нейтрализации предвзятости в той или иной форме продолжать пользоваться традиционным методом когнитивной оценки, который, как известно, ставит менее представленные группы населения в заведомо невыгодное положение.

3) Разрабатывайте системы с открытым исходным кодом и давайте возможность тестировать их третьим сторонам. Задайте механизм ответственности в работе компаний и разработчиков, предоставляя другим возможность тестировать инструменты, используемые для анализа данных. Одним из решений является использование открытого исходного кода при создании непатентованных, но критически важных компонентов технологии ИИ, которой пользуется организация. Что касается запатентованных компонентов, то сторонний аудит, проведенный заслуживающими доверия экспертами в своей области, может стать инструментом, при помощи которого компания покажет общественности, как именно она борется с предвзятостью.

4) Соблюдайте те же законы и правила сбора и использования данных, что применяются и в традиционном процессе рекрутинга. Любые данные, которые не следует собирать или использовать при традиционном процессе найма по юридическим или этическим причинам, не должны быть задействованы в работе систем ИИ. Нельзя собирать информацию о физическом, психическом и эмоциональном состоянии, генетические данные и данные об употреблении тех или иных веществ.

Мы полагаем, что, если организации последуют этим рекомендациям, этичный ИИ может значительно улучшить положение дел. Он поможет не только снизить степень предвзятости при приеме на работу, но и будет способствовать меритократии и выстраиванию более прочной связи между успехами сотрудника и его талантом и трудолюбием. Это благотворно скажется на всей мировой экономике. Когда удастся преодолеть заведомые искажения, среди кандидатов будут появляться не только рекомендованные специалисты и выпускники Лиги плюща. Люди из других социально-экономических слоев получат больший доступ к рабочим местам, что поможет создать баланс и начать работать в сторону исправления классового разрыва.

Однако чтобы все вышеперечисленное действительно сбылось, организациям необходимо инвестировать не только в передовые технологии ИИ, но также (и особенно) в знания и навыки людей, понимающих, как использовать преимущества, предложенные им новыми технологиями, и одновременно сводить к минимуму потенциальные риски и недостатки ИИ-систем. Во всех областях именно сочетание, а не самостоятельное использование искусственного и человеческого интеллекта даст наилучший результат. Этичный искусственный интеллект не панацея, а один из инструментов, с помощью которого мы может противостоять собственным предубеждениям.

Об авторах

Томас Чаморро-Премузик (Tomas Chamorro-Premuzic) — главный специалист по кадрам в ManpowerGroup, профессор бизнес-психологии в Университетском колледже Лондона и Колумбийском университете, а также член Гарвардской лаборатории по предпринимательству и финансам. Автор книги Why Do So Many Incompetent Men Become Leaders? (And How to Fix It).

Фрида Полли (Frida Polli) — когнитивный нейробиолог, соучредитель и генеральный директор pymetrics, платформы по подбору сотрудников, задействующей наработки поведенческих наук и технологии искусственного интеллекта.

Бен Даттнер (Ben Dattner) — коуч и консультант по вопросам организационного развития, основатель компании Dattner Consulting.