Эксперты предложили считать ИИ таким же глобальным риском, как пандемия или ядерная война

Представители целого ряда технологических корпораций и ведущих университетов мира опубликовали совместное заявление о высоком риске искусственного интеллекта для человечества на глобальном уровне. В коротком заявлении говорится следующее: «Снижение рисков вымирания от ИИ должно стать таким же глобальным приоритетом, как в случае с другими рисками для всего общества, такими, как пандемии или ядерная война».

Заявление помимо прочих подписали представители компаний Google, Microsoft, OpenAI, Schlumberger и др., университетов Гарварда, Оксфорда, Беркли, Принстона, Йеля, Массачусетского технологического института (MIT) и др., а также несколько бывших политиков — бывший спецпредставитель ООН по вопросам разоружения Анджела Кейн, бывший советник британского премьер-министра Бориса Джонсона по вопросам науки и технологий Джеймс Филипс, экс-президент Эстонии Керсти Кальюлайд. Авторы обращения отмечают, что они призывают к широкому общественному обсуждению всех потенциальных рисков ИИ, а также к формированию доступной для широкого общества информации об ИИ при помощи экспертов и общественных деятелей.

Рост общественного интереса и одновременно озабоченности в отношении ИИ в последние месяцы был вызван успехами в развитии последних технологий генеративных нейросетей, наподобие ChatGPT. По мнению многих экспертов, такие технологии могут быть опасны по многим направлениям, от создания высококачественных фейков и угрозы для интернет-безопасности до рисков на глобальном рынке труда.

Евгений Хвостик

Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...