Как научиться доверять искусственному интеллекту | Большие Идеи

・ Тренды

Как научиться доверять
искусственному интеллекту

Какие этические вызовы встают перед ИИ

Автор: Мария Григорьева

Как научиться доверять искусственному интеллекту
Фото: franckinjapan / Unsplash

читайте также

«Я» и «мы»: найти равновесие­

Конгдон Кристин,  Редман Мелани,  Флинн Донна

Чуда не будет, все в наших руках

Елена Евграфова

Куда везти туриста

Владимир Рувинский

Команда пятого уровня

Марина Иванющенкова

Любая новая технология, проникая в жизнь, вызывает набор не самых простых этических вопросов. В случае с искусственным интеллектом эта проблема выходит на новый уровень: машине доверяют право принятия жизненно важных решений.

По данным Accenture Research, 82% руководителей госструктур США считают, что ИИ будет массово работать рядом с людьми в качестве коллеги, сотрудника и надежного консультанта уже в самом ближайшем будущем — в течение последующих двух-трех лет. По данным другого исследования Accenture, около 65% организаций и компаний по всему миру планируют либо начать инвестиции в ИИ, либо расширить объем уже существующих трат в этом направлении в течение ближайшего года.

Вместе с тем проявляются и системные недостатки современных ИИ-решений: беспилотный транспорт попадает в фатальные ДТП, чат-боты быстро осваивают обсценную лексику и не стесняются ее использовать, возникают угрозы несанкционированного доступа к большому количеству разных видов данных с последующим неправомерным использованием без оповещения владельца. Все это провоцирует рост страхов по поводу опасных возможностей ИИ, а также защиты и конфиденциальности информации.

Некоторые ИИ-технологии, встраиваемые в уже существующие бизнес-процессы, все чаще отвечают за принятие таких решений, как выплата пособий, одобрение ипотеки и медицинская диагностика. Сегодня они получают широкое распространение, но остаются при этом наименее прозрачными: в отличие от действий беспилотника или складского робота влияние алгоритмов на привычные процессы и задачи не столь очевидны.

По этой причине организации, которые используют в своей практике алгоритмы ИИ, сталкиваются с этическими, а также правовыми и нормативными рисками. Один из наиболее актуальных — усиление и укрепление ИИ в практике применения существующих человеческих предубеждений. Некоторые из них можно назвать непреднамеренными: они возникают из-за дефектов планирования на этапе разработки и обучения ИИ-алгоритма. В других случаях принятие решения может быть искажено в результате обучения системы на недостаточно полных данных, где важные переменные могут не учитываться.

ИИ-решения не только должны быть свободны от предвзятости и придерживаться существующих современных норм и правил, они также должны быть понятны тем, на кого они влияют.

Этика: человек против машины

В работе искусственного интеллекта есть одна важнейшая особенность: обучаясь на определенном объеме данных, он выдает результат, который без анализа невозможно объяснить. Например, вы обращаетесь за кредитом в банк, ИИ анализирует вашу заявку и отклоняет ее. Почему это произошло? Какие факторы привели к тому, что машина признала вас ненадежным или невыгодным заемщиком? Не было ли это решение дискриминационным? Никто не знает. Это не выдуманная история. Такие ситуации возникают в финансовых компаниях, где искусственный интеллект помогает снижать долю невозвращенных кредитов.

Так происходит потому, что современные ИИ-алгоритмы — это сложные решения, у которых нет последовательного выполнения конечного перечня простых и легко объяснимых шагов. Они строятся на анализе и обработке огромных массивов данных с применением разных вероятностных и математических принципов. Работу таких алгоритмов невозможно объяснить на пальцах в короткий промежуток времени. Именно поэтому и требуются дополнительные средства, обеспечивающие возможность прослеживания прозрачности выполненных шагов и сделанных выводов.

Сейчас нормативно-правовая база для искусственного интеллекта в большинстве стран только развивается. В Европе уже есть первые регламенты, закрепляющие право человека на объяснение причин решения, принятого алгоритмом без участия человека. То есть любая система на базе ИИ, которая помогает принимать решение, не будет работать как «черный ящик», а может быть проанализирована экспертами по алгоритмам.

Искусственный интеллект решает задачи, ориентируясь исключительно на заложенные в него алгоритмы. Если они оказываются недостаточно продуманы, тогда ИИ может дискриминировать людей определенного пола, национальности или места проживания. Известен пример, когда поисковая машина по запросу «любящая бабушка» выдавала изображения только светлокожих женщин. В таких случаях человек должен заметить эту особенность и скорректировать работу алгоритма.

Основные направления, в которых сегодня чаще всего возникают этические вызовы при использовании ИИ:

Ответственность. С ростом роли ИИ становится труднее распределить ответственность за решения, которые он принимает. Если допущены ошибки, которые причинили ущерб, возникает вопрос: кто должен нести эти риски и компенсировать их?

Прозрачность. Если для принятия важных решений используются сложные системы машинного обучения, могут возникать сложности с выявлением причин выбранного действия. Необходимо четкое объяснение машинного мышления.

Предвзятость. Системы машинного обучения могут закрепить существующие стереотипы и предвзятость в процессах принятия решений. Необходимо позаботиться о том, чтобы ИИ развивался как недискриминационная технология.

Человеческие ценности. Никакие ИИ-решения сами по себе не имеют собственных ценностей и значений, а также какого-либо аналога врожденного «здравого смысла». Британский стандарт BS 8611 «Этическое проектирование и применение роботов и роботизированных систем» дает некоторые полезные рекомендации в этой области: «Роботы не должны быть предназначены для убийства или нанесения вреда людям; ответственными за них агентами являются люди, а не роботы; всегда должна существовать возможность выяснить, кто несет ответственность за каждого конкретного робота и его поведение».

Защита данных и интеллектуальная собственность. Потенциал искусственного интеллекта заключен в доступе к обширным массивам данных. Что происходит, когда система ИИ обучается на одном наборе данных, а затем применяет результаты обучения к новому набору данных? Может ли это нарушить защиту данных и права на конфиденциальность? Кто должен владеть продукцией самостоятельных мыслительных процессов ИИ?

Социальная дислокация. Обширные развертывания ИИ могут привести к социальной дислокации: например, к исчезновению некоторых профессий, упразднению спроса на специалистов в разных областях деятельности.

Что делать?

Для того, чтобы ИИ-решение раскрыло весь свой потенциал, его работа должна обладать такими характеристиками, как предсказуемость, доверие к алгоритмам и выдаваемым ими результатам. Необходима надежная правовая база, политическая воля для координации в сфере ИИ, а также этический кодекс в этой области.

Поощрение обсуждения этических аспектов развития искусственного интеллекта и применении его результатов на практике должно реализовываться на уровне правительства и профессионального сообщества с участием всех заинтересованных сторон. Объединение государства, частного сектора, потребителей и научных кругов позволило бы разработать этический кодекс в сфере ИИ, учитывающий технологические, социальные и политические изменения.

Например, в Великобритании существует множество инициатив в этой сфере, реализуемых Институтом Алана Тьюринга, Центром четвертой промышленной революции WEF, Королевским обществом и Партнерством по развитию ИИ во благо человека и общества.

Связанный с ИИ комплекс этических вопросов интенсивно обсуждается в Финляндии: университет Хельсинки и компания Reaktor запустили бесплатный образовательный курс для обучения 1% населения азам взаимодействия с ИИ. Более того, финское правительство призывает бизнес обучать сотрудников в этом же направлении, а инициативу уже поддержали Nokia, Kone и F-Secure.

В мэрии Нью-Йорка недавно создали целевую группу, которую уполномочили определять, какие из городских автоматизированных систем принятия решений должны подвергаться дополнительным процедурам управления. Среди инициатив — разрешение гражданам запрашивать объяснение того, как были получены те или иные решения, не было ли в этом процессе допущено непропорциональное влияние по критерию возраста, расы, вероисповедания, пола и т.д.

Корпорации тоже должны быть вовлечены в этот процесс и уже делают это. Согласно исследованию Accenture, порядка 92% экспертов и руководителей проектов с применением ИИ уже делают акцент в обучении своих сотрудников принципам этичного обращения с решениями на базе искусственного интеллекта. 74% из них проводят еженедельную оценку результатов такого обучения, а 63% организаций опираются в этом направлении на работу комитетов по этике в области ИИ для анализа динамики обучения и глубокого рассмотрения различных кейсов.