читайте также
В последние месяцы все больше ведущих специалистов по работе с ИИ покидают крупнейшие компании — OpenAI, Google DeepMind и другие — на фоне разворачивающейся дискуссии об угрозах искусственного интеллекта для человечества. Среди них — Илья Суцкевер, сооснователь OpenAI, Ян Лейке, руководитель отдела разработки ИИ OpenAI, Мира Мурати, технический директор OpenAI, и другие.
Все громче звучат опасения по поводу безопасности ИИ и высокой вероятности так называемого p(doom) — это термин в безопасности ИИ, который обозначает возможность экзистенциально катастрофического исхода (или гибели) человечества в результате деятельности искусственного интеллекта.
Основатель SpaceX, инвестор и генеральный директор Tesla, соучредитель Neuralink и OpenAI Илон Маск оценивает риски негативного сценария развития ИИ в 20%. Его поддерживает британо-канадский ученый и лауреат Нобелевской премии по физике Джеффри Хинтон — несмотря на то, что именно его разработка позволила нейросетям самообучаться при минимальном вмешательстве человека, в 2023 году он ушел из Google из-за неуверенности в безопасности буквально созданной им технологии. Хинтон считает, что ИИ угрожает вымиранию человечества в ближайшие 30 лет с вероятностью от 10 до 20%.
Оценка развития сценария p(doom), безусловно, очень примерная, ведь мы как цивилизация еще не сталкивались с тем, что демонстрирует когнитивные способности на уровне с нами или превосходит человеческие.