Три важных разговора об этике и ИИ | Большие Идеи
Тренды
Статья, опубликованная в журнале «Гарвард Бизнес Ревью Россия»

Три важных разговора об этике и ИИ

Рейд Блэкман , Бина Амманат
Три важных разговора об этике и ИИ
Иллюстрация: piranka/Getty Images

За последние несколько лет споры об этике в сфере искусственного интеллекта стали обыденностью. Общество пришло к согласию относительно основных опасений и нежелательных результатов и тщательно задокументировало их. Никто не хочет, чтобы в алгоритмы ИИ закрались дискриминация или когнитивные искажения, а также начались преследования и посыпались иски за нарушение конфиденциальности. Теперь, когда все договорились, что непрозрачные, подверженные стереотипам, вторгающиеся в личное пространство ИИ-решения нам не подходят, каков будет наш следующий шаг? Руководители высшего звена задают себе один и тот же вопрос: с чего начать устранение этических рисков?

Готовность к решительным действиям похвальна — но быстро устранить проблему не удастся: машинное обучение, этика и точки их пересечения весьма многоплановы. Чтобы внедрить, масштабировать и поддерживать стратегии по эффективному устранению этических рисков в ИИ-сфере, нужно начать с глубинного анализа решаемых задач. Увы, разговоры об этике алгоритмов почти всегда очень общи. Поэтому первым шагом должен стать поиск конкретных, практичных приемов ее обсуждения. Мы подскажем, как организовать дискуссию, чтобы ее результатом стал четкий перечень последующих шагов.

Кого вовлечь?

Рекомендуем сформировать на уровне руководства рабочую группу, ответственную за обеспечение этичности ИИ в вашей организации. В нее должны войти люди с нужными навыками, опытом и знаниями, которые смогут уверенно дискутировать о потребностях компании, технических возможностях и операционных приемах. Советуем включить в нее как минимум четыре типа специалистов: экспертов по технологиям, юриспруденции/комплаенсу и этике, а также бизнес-лидеров, разбирающихся в проблемах, которые компания пытается решить при помощи ИИ. Их коллективная цель — выявить основные источники этических рисков для конкретной отрасли и конкретной фирмы. Невозможно выработать качественное решение без глубокого понимания поставленной задачи и потенциальных помех на пути предлагаемых вариантов.

Технари понадобятся вам для оценки осуществимости тех или иных предложений на уровне как продукта, так и организации. Это важно в том числе и потому, что разные планы устранения рисков требуют разных инструментов и умений. Понимание технических возможностей фирмы может оказаться главным условием верного взгляда на поиск и ликвидацию основных узких мест.

Юристы и специалисты по комплаенсу нужны, чтобы планы по работе с рисками соответствовали нормам и не повторяли уже существующих в компании практик. Нестыковки с законодательством вполне вероятны: никто не знает, как нынешние установки и стандарты станут применять к новым технологиям и какие правила или законы будут приняты в обозримом будущем.

Эксперты по этике помогут последовательно и тщательно изучить значимые этические и репутационные риски, возникающие не только в процессе разработки и закупки ИИ, но и в ходе развития вашей индустрии и (или) организации. Включение этих сотрудников в рабочую группу особенно важно: соответствие законам (возможно, устаревшим) не гарантирует этической и репутационной безопасности вашей компании.

Наконец, бизнес-лидеры призваны следить, чтобы пути устранения рисков отвечали интересам и целям фирмы. Любая деятельность сопряжена с рисками — но ненужный их избыток мешает нормально работать, поэтому формировать стратегии управления ими надо с оглядкой на экономическую целесообразность.

Три разговора, которые помогут сдвинуть дело с мертвой точки

Собрав группу, надо провести внутри нее три важнейших дискуссии. Первая должна привести к единому пониманию целей, которые призвана решать программа работы с этическими рисками искусственного интеллекта. Вторая — помочь нащупать разрыв между тем, где организация находится сейчас, и тем, где она хочет быть. Третья — привести к пониманию причин этих разрывов, чтобы их можно было комплексно и эффективно устранить.

1) Выработайте корпоративный этический стандарт для ИИ.

Любой разговор на эту тему должен ставить во главу угла соответствие законодательству (в том числе антидискриминационному) и нормам (например, европейского Общего регламента по защите данных и (или) Апелляционного суда США по таможенным и патентным делам). Прежде всего необходимо ответить на главный вопрос, суть которого в следующем: так как этические риски отличаются от юридических и регуляторных, надо четко определить, что мы понимаем под этическими рисками для нашей отрасли (организации) и какую позицию мы по ним занимаем?

советуем прочитать

Об авторах

Рейд Блэкман (Reid Blackman) — доктор наук, автор книги «Ethical Machines: Your concise guide to totally unbiased, transparent, and respectful AI» (Harvard Business Review Press, июль 2022 г.), основатель и генеральный директор Virtue — консалтинга по этическим рискам. Рейд — старший советник Института искусственного интеллекта Deloitte. Ранее входил в Консультативный совет по ИИ компании Ernst & Young, а сейчас на общественных началах трудится директором по этике в НКО Government Blockchain Association. До этого Блэкман занимал должность профессора философии в Колгейтском университете и Университете Северной Каролины (Чапел-Хилл).

Бина Амманат (Beena Ammanath) — исполнительный директор глобального Института искусственного интеллекта Deloitte, автор книги «Trustworthy AI», основатель НКО Humans For AI, глава Trustworthy and Ethical Tech for Deloitte. Бина — удостоенный наград топ-менеджер с обширным международным опытом в сфере ИИ и цифровой трансформации компаний в таких отраслях, как электронная коммерция, финансы, маркетинг, телекоммуникации, ретейл, ПО, услуги и промышленность (среди ее клиентов — HPE, GE, Thomson Reuters, British Telecom, Bank of America, e*trade).

Войдите на сайт, чтобы читать полную версию статьи