Future of Life: все ИИ-компании не готовы к экзистенциальным рискам
Некоммерческая общественная организация Future of Life опубликовала рейтинг компаний, разрабатывающих системы искусственного интеллекта (ИИ), с точки зрения безопасности и учета различных рисков, которые несут такие технологии. Аналитики организации пришли к выводу, что все компании недостаточно серьезно относятся к таким рискам и мало делают для их предотвращения. Как отметил профессор Массачусетского технологического института и глава Future of Life Макс Тегмарк, «несмотря на недавнее беспокойство по поводу хакерских атак с использованием ИИ и доведение людей до психоза и самоповреждений при использовании искусственного интеллекта, такие компании в США все еще регулируют слабее, чем рестораны».
В рейтинге все компании могут получить баллы от A (самый высокий уровень безопасности) до F (самый низкий). Компании Anthropic и OpenAI, оцененные Future of Life выше остальных, получили лишь C+, а Google DeepMind — С. В докладе также говорится о серьезном разрыве между этими лидерами рейтинга и остальными компаниями. Хуже всех с баллом D- оказалась Alibaba Cloud. Большинство компаний — xAI, Z.ai, Meta (признана экстремистской и запрещена в РФ) и DeepSeek — получили D.
Аналитики Future of Life ставили баллы ИИ-компаниям по нескольким параметрам, среди которых оценка рисков, практическая безопасность (борьба с уже имеющимися угрозами), экзистенциальная безопасность и др. В докладе говорится, что именно экзистенциальная безопасность — готовность компаний к экстремальным рискам в будущем, связанным с ИИ-системами, по своим возможностям равными человеку или превосходящими его, в частности к риску потери контроля над такими системами,— является главной структурной слабостью отрасли. По этому показателю все компании получили лишь D или F.