Кого бояться — ИИ или людей? Павел Подкорытов — об основных вызовах новых технологий для человечества | Большие Идеи

・ Технологии

Кого бояться — ИИ или людей? Павел Подкорытов — об основных вызовах новых технологий
для человечества

Какие преимущества и риски приносит масштабное развитие ИИ, возможно ли создать сверхинтеллект и будет ли он обладать субъектностью, рассказывает сооснователь и генеральный директор Napoleon IT Павел Подкорытов.

Автор: Павел Подкорытов

Кого бояться — ИИ или людей? Павел Подкорытов — об основных вызовах новых технологий для человечества
Фото: Christin Hume / Unsplash

читайте также

«Когда вы так говорите россиянам, то они легко вас понимают»

Александр Губский/"Ведомости",  Владимир Штанов

Чему HR могут научиться у технарей

Что привлекает шопоголика

«Это провал!»: как восстановиться после крупной неудачи

Рон Каруччи

В последние месяцы все больше ведущих специалистов по работе с ИИ покидают крупнейшие компании — OpenAI, Google DeepMind и другие — на фоне разворачивающейся дискуссии об угрозах искусственного интеллекта для человечества. Среди них — Илья Суцкевер, сооснователь OpenAI, Ян Лейке, руководитель отдела разработки ИИ OpenAI, Мира Мурати, технический директор OpenAI, и другие.

Все громче звучат опасения по поводу безопасности ИИ и высокой вероятности так называемого p(doom) — это термин в безопасности ИИ, который обозначает возможность экзистенциально катастрофического исхода (или гибели) человечества в результате деятельности искусственного интеллекта.

Основатель SpaceX, инвестор и генеральный директор Tesla, соучредитель Neuralink и OpenAI Илон Маск оценивает риски негативного сценария развития ИИ в 20%. Его поддерживает британо-канадский ученый и лауреат Нобелевской премии по физике Джеффри Хинтон — несмотря на то, что именно его разработка позволила нейросетям самообучаться при минимальном вмешательстве человека, в 2023 году он ушел из Google из-за неуверенности в безопасности буквально созданной им технологии. Хинтон считает, что ИИ угрожает вымиранию человечества в ближайшие 30 лет с вероятностью от 10 до 20%.

Оценка развития сценария p(doom), безусловно, очень примерная, ведь мы как цивилизация еще не сталкивались с тем, что демонстрирует когнитивные способности на уровне с нами или превосходит человеческие.