«Киодо»: министры G7 готовы разработать международные стандарты использования ИИ

Министры стран G7 договорились продвигать ответственное использование искусственного интеллекта на фоне рисков злоупотребления и проблем с конфиденциальностью, сообщает Kyodo. Двухдневная встреча глав торговых и цифровых ведомств государств-членов «семерки» проходит сейчас в Японии.

Агентство отмечает, что обсуждение состоялось в связи с тем, что стремительные темпы развития ИИ выявили необходимость в разработке международных стандартов применения соответствующих технологий. В качестве примера Kyodo приводит успех американского ChatGPT, число пользователей которого достигло 100 млн менее чем за три месяца с момента запуска.

«Учитывая, что технологии генеративного искусственного интеллекта становятся все более заметными, мы признаем необходимость в ближайшем будущем оценить потенциал и риски использования этих технологий»,— декларировали участники обсуждения по итогу встречи.

Они также одобрили план действий по «созданию открытых и благоприятных условий для инноваций в области ИИ» и разработке международных стандартов в отношении управления системами с учетом оценки всех сопутствующих рисков.

По данным Kyodo, в совместном заявлении упомянуты пять принципов, которыми должны руководствоваться политики при использовании любых новых технологий. Оговорено верховенство закона, демократии, прав человека и инноваций, а также разработка «надлежащих правовых процедур».

30 марта свыше 1 тыс. ведущих представителей IT-индустрии опубликовали открытое письмо, в котором заявили о необходимости приостановить на шесть месяцев обучение систем искусственного интеллекта в связи с необходимостью разработать протоколы безопасности для работы с этими инструментами.

Подробнее об этом — в материале «Ъ FM» «Нейросети отправляют на каникулы».

Григорий Лейба

Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...