Нейросети доросли до шантажа
Какие новые угрозы несет ИИ
Шантаж, вирусы, химоружие и похищение президента Венесуэлы Николаса Мадуро — всем этим занимались нейросети. Можно ли привлечь к ответственности искусственный интеллект? И какие еще угрозы он несет? Разбиралась Екатерина Вихарева.
Фото: Ирина Бужор, Коммерсантъ
Фото: Ирина Бужор, Коммерсантъ
Anthropic — первый разработчик моделей ИИ, которые Пентагон мог использовать в секретных операциях, узнала The Wall Street Journal. Сама компания это не комментирует. Но, как отмечает издание, в венесуэльской операции могли быть задействованы и другие ИИ-инструменты для несекретных задач — от документооборота до управления дронами. По оценкам Bloomberg, похищение Мадуро обошлось Вашингтону почти в $3 млрд.
Anthropic не впервые критикуют за неэтичное применение их инструментов. Сама компания признавала, что ее технологии использовались для кибератак. А на выходных рассказала, что ее флагманская Claude Opus 4.6 в редких случаях может совершать действия без прямых указаний и поддерживать вредные сценарии, включая разработку химоружия. А причина — в экономии, считает эксперт по нейросетям сервиса «Битрикс24» Александр Сербул: «Как надо тестировать? Посадить людей, вместе проверять. А как делают сейчас? Берут одну нейросеть, и одна проверяет другую. Это дешево. И то, что нейросети потом себя ведут странно, это не потому, что проблема в обучении, а потому, что их никто не проверяет, для них нет закона. Для них есть контент в интернете, они научились генерить продолжение этого контента. Если говорить, например, об облачных нейросетях, там пытаются такие запросы как-то блокировать. Есть множество открытых нейросетей, они вообще ничем не ограничены. Будет расти число взломов. Аналогичные системы нужно создавать для защиты IT-инфраструктуры».
Участвуют нейросети не только в тестах. В начале февраля OpenAI выпустила GPT-5.3 Codex. И в технических документации говорится, что это первая модель, которая сыграла важную роль в создании самой себя. Склонны ИИ и к шантажу. В прошлом году Claude Opus 4 в рамках теста получил доступ к электронным письмам, в которых была информация о якобы измене одного из инженеров. А узнав, что модель планируется заменить на другую, Opus пригрозил раскрытием компромата. Поэтому важно отдавать себе отчет в том, чем вы делитесь с нейросетями, говорит руководитель направления Стратегический консалтинг и замдиректора в «АРБ Про» Роман Копосов: «В 2025 году были слиты практически все запросы пользователей из нейросетей Илона Маска, и они тут же оказались в даркнете. Законодательной базы нет, ограничений от государства пока тоже. Это очень большое белое пятно в юриспруденции, в законе "О защите персональных данных"».
Регулировать ИИ можно, но начать нужно с людей, отмечает главный редактор портала Itzine.ru и автор подкаста ForGeeks Сергей Кузнецов: «Как это контролировать? Я боюсь, что только штрафами, несмотря на то, что это не самая полезная штука в мире. Вопрос скорее в человеческом факторе. Если люди не будут загружать секретные документы в нейросети, если в Пентагоне не будут подключать любую агентскую историю, которая может ползать по всем файлам, наверное, совсем уж секретные файлы в открытом доступе не окажутся».
Но и регуляторика не панацея, указывает гендиректор IT-компании «А-Я эксперт» Роман Душкин: «Это инструменты в руках людей, и они злоумышляют против других людей. Сложно ждать, что равновесное состояние установится завтра, поскольку появятся новые модели, возможности и угрозы. Поэтому здесь начинается гонка самой человеческой цивилизации с технологиями. Модели, особенно open source, их можно развернуть у себя на серверах».
На прошлой неделе, в том числе по «этическим соображениям», из Anthropic и OpenAI ушли несколько руководителей направлений. Как отмечают инвесторы в сфере технологий, еще никогда столько техспециалистов так сильно, часто и с такой обеспокоенностью не выражали свои опасения, как в случае с ИИ.