читайте также
За последние несколько лет споры об этике в сфере искусственного интеллекта стали обыденностью. Общество пришло к согласию относительно основных опасений и нежелательных результатов и тщательно задокументировало их. Никто не хочет, чтобы в алгоритмы ИИ закрались дискриминация или когнитивные искажения, а также начались преследования и посыпались иски за нарушение конфиденциальности. Теперь, когда все договорились, что непрозрачные, подверженные стереотипам, вторгающиеся в личное пространство ИИ-решения нам не подходят, каков будет наш следующий шаг? Руководители высшего звена задают себе один и тот же вопрос: с чего начать устранение этических рисков?
Готовность к решительным действиям похвальна — но быстро устранить проблему не удастся: машинное обучение, этика и точки их пересечения весьма многоплановы. Чтобы внедрить, масштабировать и поддерживать стратегии по эффективному устранению этических рисков в ИИ-сфере, нужно начать с глубинного анализа решаемых задач. Увы, разговоры об этике алгоритмов почти всегда очень общи. Поэтому первым шагом должен стать поиск конкретных, практичных приемов ее обсуждения. Мы подскажем, как организовать дискуссию, чтобы ее результатом стал четкий перечень последующих шагов.
Кого вовлечь?
Рекомендуем сформировать на уровне руководства рабочую группу, ответственную за обеспечение этичности ИИ в вашей организации. В нее должны войти люди с нужными навыками, опытом и знаниями, которые смогут уверенно дискутировать о потребностях компании, технических возможностях и операционных приемах. Советуем включить в нее как минимум четыре типа специалистов: экспертов по технологиям, юриспруденции/комплаенсу и этике, а также бизнес-лидеров, разбирающихся в проблемах, которые компания пытается решить при помощи ИИ. Их коллективная цель — выявить основные источники этических рисков для конкретной отрасли и конкретной фирмы. Невозможно выработать качественное решение без глубокого понимания поставленной задачи и потенциальных помех на пути предлагаемых вариантов.
Технари понадобятся вам для оценки осуществимости тех или иных предложений на уровне как продукта, так и организации. Это важно в том числе и потому, что разные планы устранения рисков требуют разных инструментов и умений. Понимание технических возможностей фирмы может оказаться главным условием верного взгляда на поиск и ликвидацию основных узких мест.
Юристы и специалисты по комплаенсу нужны, чтобы планы по работе с рисками соответствовали нормам и не повторяли уже существующих в компании практик. Нестыковки с законодательством вполне вероятны: никто не знает, как нынешние установки и стандарты станут применять к новым технологиям и какие правила или законы будут приняты в обозримом будущем.
Эксперты по этике помогут последовательно и тщательно изучить значимые этические и репутационные риски, возникающие не только в процессе разработки и закупки ИИ, но и в ходе развития вашей индустрии и (или) организации. Включение этих сотрудников в рабочую группу особенно важно: соответствие законам (возможно, устаревшим) не гарантирует этической и репутационной безопасности вашей компании.
Наконец, бизнес-лидеры призваны следить, чтобы пути устранения рисков отвечали интересам и целям фирмы. Любая деятельность сопряжена с рисками — но ненужный их избыток мешает нормально работать, поэтому формировать стратегии управления ими надо с оглядкой на экономическую целесообразность.
Три разговора, которые помогут сдвинуть дело с мертвой точки
Собрав группу, надо провести внутри нее три важнейших дискуссии. Первая должна привести к единому пониманию целей, которые призвана решать программа работы с этическими рисками искусственного интеллекта. Вторая — помочь нащупать разрыв между тем, где организация находится сейчас, и тем, где она хочет быть. Третья — привести к пониманию причин этих разрывов, чтобы их можно было комплексно и эффективно устранить.
1) Выработайте корпоративный этический стандарт для ИИ.
Любой разговор на эту тему должен ставить во главу угла соответствие законодательству (в том числе антидискриминационному) и нормам (например, европейского Общего регламента по защите данных и (или) Апелляционного суда США по таможенным и патентным делам). Прежде всего необходимо ответить на главный вопрос, суть которого в следующем: так как этические риски отличаются от юридических и регуляторных, надо четко определить, что мы понимаем под этическими рисками для нашей отрасли (организации) и какую позицию мы по ним занимаем?
Для верного ответа требуется учесть массу нюансов. Например, что в контексте вашей компании можно считать дискриминирующей моделью? Представим, что используемые алгоритмы при отборе кандидатов ущемляют права женщин — но меньше, чем до внедрения ИИ. Каков ваш ориентир беспристрастности — «лучше, чем это удавалось людям без ПО в течение последних 10 лет» или что-то иное? Этот вопрос часть задают в индустрии автомобилей-беспилотников: «В какой момент пора их массово выпускать — когда они станут ездить лучше среднестатистического водителя или лучше суперпрофи?»
Аналогичные вопросы возникают по поводу моделей типа «черный ящик». Какое значение ваша организация придает объясняемости работы систем? Есть ли случаи, в которых вы считаете приемлемым «черный ящик» (скажем, если его результаты отвечают заданным параметрам)? По каким критериям вы определяете, излишен, полезен или необходим в конкретной ситуации ИИ с объяснимыми выводами на выходе?
Подробное рассмотрение этих проблем позволяет утвердить рамки и инструменты для сотрудников, отвечающих за разработку и одобрение продуктов. Например, вы можете решить, что до момента развертывания (или даже на ранних этапах создания) каждый продукт должен проходить due diligence на этические риски. Или задать правила применения моделей типа «черный ящик», если сочтете их допустимыми. Вы поймете, что продвинулись в рассуждениях, когда сможете четко сформулировать минимальные этические стандарты для работы всех ваших алгоритмов. Эти стандарты важны для завоевания доверия клиентов и заказчиков, а также покажут регуляторам, проверяющим компании на дискриминационные практики, что вы тщательно выверили свои модели.
2) Определите разрывы между стандартом и существующим положением.
Проблемы с этикой ИИ можно исправлять или решать разными техническими приемами. Существует целый ряд программных продуктов (как от компаний-гигантов, так и от стартапов и НКО), помогающих специалистам по обработке данных количественно оценивать непредвзятость выдачи своих моделей. Инструменты вроде LIME или SHAP позволяют объяснить, как эта выдача в принципе была получена. При этом мало кто считает, что технологии сами по себе способны эффективно снижать этические риски и обеспечивать соответствие организации собственным стандартам ИИ-этики.
Ваша рабочая группа должна определить пределы своих возможностей — и синергии навыков и знаний всех участников. Для этого задайте себе следующие вопросы.
1. Какие именно риски мы пытаемся устранить?
2. Как в этом поможет количественный (программный) анализ?
3. Какие области им не покрыты?
4. Какой качественный анализ и когда понадобится нам для заполнения этих пробелов, на какой основе и кто должен осуществлять его?
В эти беседы надо включить часто упускаемый из виду важный пункт: какой уровень технологической зрелости позволит удовлетворить этические потребности (в частности, есть ли у вас инструменты, объясняющие работу глубоких нейросетей)? Чтобы продуктивно обсуждать реалистичность целей по управлению этическими рисками ИИ, нужно понимать технические возможности организации.
Чтобы четко представить себе дальнейшие шаги, посмотрите, какие количественные решения продуктовые команды смогут совместить с имеющимися практиками; какой масштаб количественных оценок доступен для организации; как делать все это эффективно и комплексно.
3) Разберитесь в хитросплетениях источников проблем и обеспечьте реализуемость решений.
Многие дискуссии о несправедливости алгоритмов начинаются с конкретных примеров и сетований на «предвзятость» наборов данных. Отсюда собеседники часто переходят к обсуждению скрытых или бессознательных когнитивных искажений — понятия, заимствованного из психологии и неприменимого напрямую к выборкам данных. Но просто заявить, что «модели обучаются на предвзятых наборах данных» или «ИИ отражает традиционные для нашего общества дискриминационные практики и политики», недостаточно.
И дело даже не в том, что подобные утверждения ложны (а такое случается), — а в том, что они не дают полной картины проблемы. В частности, чтобы понять суть перекосов в результатах работы алгоритмов, необходимо поговорить о том, по каким причинам они могут выдавать дискриминирующие сведения. Возможно, все дело в данных, на которых ИИ натаскивается. Но важно понять, каким именно образом они искажены — хотя бы потому, что так мы узнаем, как с этими искажениями бороться. Есть и масса других принципиальных вопросов: какой относительный вес присваивать полученным данным, какие пороговые значения задавать, какие объективные функции назначать. Короче говоря, тем, кто изучает дискриминирующие алгоритмы, необходимо найти корень проблемы — и подходящих для их ликвидации стратегий.
. . .
Продуктивные дискуссии об этике не должны ограничиваться общими словами, очевидными даже для неспециалистов. За столом переговоров надо собрать экспертов, способных уточнить и углубить стандарты работы организации. Итогом станет плодотворное сочетание количественных и качественных подходов к сокращению этических рисков, что позволит преодолеть разрыв между нынешним и желательным положением компании. Необходимо учесть весь диапазон источников этих рисков. В конечном счете этические риски ИИ должны утратить свой теоретический, неясный флер и стать конкретной задачей, заслуживающей и требующей постоянного внимания (а не паники и повторения газетных заголовков).