Статья, опубликованная в журнале «Гарвард Бизнес Ревью Россия»
Три важных разговора об этике и ИИ
Рейд Блэкман , Бина Амманат
За последние несколько лет споры об этике в сфере искусственного интеллекта стали обыденностью. Общество пришло к согласию относительно основных опасений и нежелательных результатов и тщательно задокументировало их. Никто не хочет, чтобы в алгоритмы ИИ закрались дискриминация или когнитивные искажения, а также начались преследования и посыпались иски за нарушение конфиденциальности. Теперь, когда все договорились, что непрозрачные, подверженные стереотипам, вторгающиеся в личное пространство ИИ-решения нам не подходят, каков будет наш следующий шаг? Руководители высшего звена задают себе один и тот же вопрос: с чего начать устранение этических рисков?
Готовность к решительным действиям похвальна — но быстро устранить проблему не удастся: машинное обучение, этика и точки их пересечения весьма многоплановы. Чтобы внедрить, масштабировать и поддерживать стратегии по эффективному устранению этических рисков в ИИ-сфере, нужно начать с глубинного анализа решаемых задач. Увы, разговоры об этике алгоритмов почти всегда очень общи. Поэтому первым шагом должен стать поиск конкретных, практичных приемов ее обсуждения. Мы подскажем, как организовать дискуссию, чтобы ее результатом стал четкий перечень последующих шагов.
Кого вовлечь?
Рекомендуем сформировать на уровне руководства рабочую группу, ответственную за обеспечение этичности ИИ в вашей организации. В нее должны войти люди с нужными навыками, опытом и знаниями, которые смогут уверенно дискутировать о потребностях компании, технических возможностях и операционных приемах. Советуем включить в нее как минимум четыре типа специалистов: экспертов по технологиям, юриспруденции/комплаенсу и этике, а также бизнес-лидеров, разбирающихся в проблемах, которые компания пытается решить при помощи ИИ. Их коллективная цель — выявить основные источники этических рисков для конкретной отрасли и конкретной фирмы. Невозможно выработать качественное решение без глубокого понимания поставленной задачи и потенциальных помех на пути предлагаемых вариантов.
Технари понадобятся вам для оценки осуществимости тех или иных предложений на уровне как продукта, так и организации. Это важно в том числе и потому, что разные планы устранения рисков требуют разных инструментов и умений. Понимание технических возможностей фирмы может оказаться главным условием верного взгляда на поиск и ликвидацию основных узких мест.
Юристы и специалисты по комплаенсу нужны, чтобы планы по работе с рисками соответствовали нормам и не повторяли уже существующих в компании практик. Нестыковки с законодательством вполне вероятны: никто не знает, как нынешние установки и стандарты станут применять к новым технологиям и какие правила или законы будут приняты в обозримом будущем.
Эксперты по этике помогут последовательно и тщательно изучить значимые этические и репутационные риски, возникающие не только в процессе разработки и закупки ИИ, но и в ходе развития вашей индустрии и (или) организации. Включение этих сотрудников в рабочую группу особенно важно: соответствие законам (возможно, устаревшим) не гарантирует этической и репутационной безопасности вашей компании.
Наконец, бизнес-лидеры призваны следить, чтобы пути устранения рисков отвечали интересам и целям фирмы. Любая деятельность сопряжена с рисками — но ненужный их избыток мешает нормально работать, поэтому формировать стратегии управления ими надо с оглядкой на экономическую целесообразность.
Три разговора, которые помогут сдвинуть дело с мертвой точки
Собрав группу, надо провести внутри нее три важнейших дискуссии. Первая должна привести к единому пониманию целей, которые призвана решать программа работы с этическими рисками искусственного интеллекта. Вторая — помочь нащупать разрыв между тем, где организация находится сейчас, и тем, где она хочет быть. Третья — привести к пониманию причин этих разрывов, чтобы их можно было комплексно и эффективно устранить.
1) Выработайте корпоративный этический стандарт для ИИ.
Любой разговор на эту тему должен ставить во главу угла соответствие законодательству (в том числе антидискриминационному) и нормам (например, европейского Общего регламента по защите данных и (или) Апелляционного суда США по таможенным и патентным делам). Прежде всего необходимо ответить на главный вопрос, суть которого в следующем: так как этические риски отличаются от юридических и регуляторных, надо четко определить, что мы понимаем под этическими рисками для нашей отрасли (организации) и какую позицию мы по ним занимаем?