Ловушка искусственного интеллекта
ИИ-агенты могут снизить интеллектуальный капитал общества
Достижение определенного порога качества рекомендаций агентского искусственного интеллекта (способен автономно принимать решения на основе контекста) может грозить коллапсом «базы знаний» человечества, предупреждают исследователи из Массачусетского технологического института во главе с нобелиатом по экономике Дароном Аджемоглу. Высокая эффективность работы агентского ИИ, выступая для людей заменой обучению, в итоге может привести к снижению интеллектуального капитала общества. Для поддержания достаточного уровня мотивации и предотвращения краха коллективного накопления знаний ученые рекомендуют намеренно ограничить точность рекомендаций ИИ.
Генеральный директор VEON Group Каан Терзиоглу
Фото: Albert Gea / Reuters
Генеральный директор VEON Group Каан Терзиоглу
Фото: Albert Gea / Reuters
Работа исследователей из Массачусетского технологического института (MIT) Дарона Аджемоглу (лауреат Нобелевской премии по экономике 2024 года), Дингвена Конга и Асумана Оздаглара «Искусственный интеллект, человеческое познание и коллапс знаний» посвящена проблеме влияния инструментов ИИ на когнитивные способности и знания человека.
Господин Аджемоглу, отметим, давний критик неконтролируемого развития технологий ИИ (см. “Ъ” от 16 сентября 2021 года). Новая статья опубликована в рабочих документах Национального бюро экономических исследований (NBER). Авторы отмечают, что в обществе существуют разногласия в оценке последствий расширения использования технологии, которые отчасти связаны с ролью информации, предоставляемой ИИ: способствует ли она обучению человека или, наоборот, дестимулирует это обучение.
Во втором случае ИИ по мере совершенствования будет все сильнее препятствовать получению знаний, так как наиболее значимую информацию человек может получить без труда, уже в готовом виде.
Внимание ученых сосредоточено на генеративном и особенно агентском ИИ, что можно объяснить его способностью автономно принимать решения на основе контекста. Как и люди, инструменты генеративного ИИ могут получать и общие, и специфические для контекста знания. Подход авторов заключается в том, что для хорошего прогнозирования или выполнения задач, как правило, требуется сочетание обоих типов — данные должны дополнять друг друга. При этом, как замечают ученые, важной особенностью общих знаний является то, что они основаны на коллективных усилиях к их получению и доступны шире, чем частный опыт отдельного человека.
Для изучения влияния агентского ИИ на мотивацию людей к обучению и долгосрочную эволюцию коллективного знания исследователи создали динамическую модель обучения и принятия решений, содержащую в себе два компонента (общие знания и узкоспециальный контекст). При этом ученые учитывали то, что знания на уровне сообщества сами по себе являются вкладом в модели ИИ — без человеческих усилий, экспериментов и открытий у моделей ИИ не было бы достаточно ценной информации, которую они могли бы обобщить и проанализировать.
Основным результатом своей работы авторы называют предостережение: мощная агентская модель ИИ может в статике помогать людям при принятии решений, но в динамике — нанести ущерб коллективному накоплению знаний вплоть до его коллапса.
Достаточно качественные рекомендации от ИИ могут заменить усилия людей в получении знаний, а с этим сократится и «общий пул» информации, которую могут собирать сообщество и модели ИИ. Активность же агрегирования общего знания повышает благосостояние и увеличивает устойчивость к краху знаний, подчеркивают ученые.
Хотя агентский ИИ может повысить качество текущих решений, при определенном пороге точности рекомендаций он может и ослабить стимулы людей к обучению, поддерживающие долговременное коллективное знание. Сохранить мотивацию и предотвратить коллапс знаний, по мнению ученых, могло бы преднамеренное искажение точности агентских рекомендаций. Оптимальные стратегии управления ИИ предусматривают регулирование, способствующее сохранению стимула к получению знаний и развитию человеческого потенциала, замечают они.