Лидеры IT-индустрии требуют приостановить разработку продвинутых нейросетей. Больше тысячи специалистов и предпринимателей, в том числе Илон Маск и Стив Возняк, поставили свои подписи под открытым обращением, опубликованным на сайте организации The Future of Life Institute. Эта НКО исследует потенциальные угрозы для существования человечества. По мнению авторов письма, современные решения в области искусственного интеллекта вот-вот начнут превосходить человека, и обществу нужно минимум полгода, чтобы разработать протоколы безопасности для работы с этими инструментами. Какие опасности таят в себе нейросети? И не слишком ли сильно лидеры мнений сгущают краски? Разбиралась Лилия Галявиева.
Фото: Евгений Павленко, Коммерсантъ
Нейросети развиваются слишком стремительно, и некоторых это пугает. За несколько месяцев существования Midjourney, например, научилась создавать изображения, не отличимые от реальных фото. Пример тому недавно завирусившееся фото с папой римским в пуховике или серия снимков с операции по аресту Дональда Трампа. Часть пользователей соцсетей поверили картинкам, и Twitter пришлось ввести плашки с пометками: публикации фейковые. Причем инициатором мистификации может быть как человек, поставивший нейросети соответствующую задачу, так и сама программа, и это проблема, объясняет эксперт в области искусственного интеллекта Роман Душкин:
«Эти системы могут лгать, то есть они выдумывают ответ настолько убедительно, что человек, особенно обыватель, не имеющий критического мышления, при общении с нейросетью будет убежден на 100% в ее правильном ответе. А он может быть и неправильным. Скорее всего, опасения вызваны тем, что ИИ станет использовать инструменты манипулирования».
Но пропаганда чего-либо и введение в заблуждение — не единственное, на что способны нейросети. Не все модели подчиняются сформулированным Айзеком Азимовым законам робототехники, главный из которых гласит, что машина не может нанести вред человеку. Как минимум косвенно это уже происходит, замечает главный редактор itzine.ru и автор подкаста ForGeeks Сергей Кузнецов:
«Например, робот может помочь хозяину причинить вред другому человеку и подсказать ему, как это правильно сделать. Мы все помним шутку Siri, когда у нее спрашивали: "Подскажи мне, где спрятать труп". Она отвечала, и это впоследствии убрали из операционной системы, но этические нормы, законы, к сожалению, нейросети пока что не знают».
И самый жуткий сценарий, которого опасаются алармисты: современные нейросети приблизят момент технологической сингулярности, когда люди потеряют контроль над своими творениями. Пока, впрочем, до этого, мягко говоря, далеко, говорит управляющий партнер группы компаний Ifellow Игорь Богачев. Так что особой необходимости в том, чтобы сдерживать развитие технологий, эксперт не видит:
«Рынки, где искусственный интеллект предполагает какую-то опасность для человека, и так регулируемы. Например, транспорт, медицина или геномика. А в тех сегментах, где нейросеть дает возможность, например, обслуживать людей лучше, где большое количество рутинных операций, это только должно приветствоваться. Развитие технологий или прикладных исследований нельзя останавливать, потому что это и есть прогресс человечества».
Впрочем, может быть и так, что сторонники приостановки развития технологий преследуют отнюдь не гуманистические, а самые что ни на есть корыстные цели. Такую версию не исключает Сергей Кузнецов из itzine.ru:
«Стив Возняк и другие подписавшие этот документ, не являются учредителями компаний, которые занимаются нейросетями. При этом они хотят поставить на паузу разработку ИИ, чтобы самим успеть прыгнуть в уходящий поезд. Разработки ведутся в небольших стартапах, там создаются крутые вещи, которые могут потеснить известные технологические компании, потому что развиваются они гораздо быстрее, в том числе из-за того, что им гораздо проще принимать новые решения и тестировать новые методы, чем SpaceX».
Возымеет ли письмо представителей IT-индустрии какой-то эффект, пока сказать сложно. Создатели нейросетей тем временем продолжают совершенствовать этот инструмент. Инсайдеры сообщают, что к концу 2023 года OpenAI могут выпустить новую, уже пятую версию GPT. Это при том, что предыдущая — четвертая — вышла лишь две недели назад.
Новости в вашем ритме — Telegram-канал "Ъ FM".