Эксперты предложили считать ИИ таким же глобальным риском, как пандемия или ядерная война

Представители целого ряда технологических корпораций и ведущих университетов мира опубликовали совместное заявление о высоком риске искусственного интеллекта для человечества на глобальном уровне. В коротком заявлении говорится следующее: «Снижение рисков вымирания от ИИ должно стать таким же глобальным приоритетом, как в случае с другими рисками для всего общества, такими, как пандемии или ядерная война».

Заявление помимо прочих подписали представители компаний Google, Microsoft, OpenAI, Schlumberger и др., университетов Гарварда, Оксфорда, Беркли, Принстона, Йеля, Массачусетского технологического института (MIT) и др., а также несколько бывших политиков — бывший спецпредставитель ООН по вопросам разоружения Анджела Кейн, бывший советник британского премьер-министра Бориса Джонсона по вопросам науки и технологий Джеймс Филипс, экс-президент Эстонии Керсти Кальюлайд. Авторы обращения отмечают, что они призывают к широкому общественному обсуждению всех потенциальных рисков ИИ, а также к формированию доступной для широкого общества информации об ИИ при помощи экспертов и общественных деятелей.

Рост общественного интереса и одновременно озабоченности в отношении ИИ в последние месяцы был вызван успехами в развитии последних технологий генеративных нейросетей, наподобие ChatGPT. По мнению многих экспертов, такие технологии могут быть опасны по многим направлениям, от создания высококачественных фейков и угрозы для интернет-безопасности до рисков на глобальном рынке труда.

Евгений Хвостик

Вся лента