Театр теней
Почему корпорации оплачивают счета за электричество под видом цифровой трансформации
В 2026 году мировой бизнес оказался в заложниках изящной макроэкономической иллюзии. Глобальный консалтинг послушно рапортует о грядущих триллионах долларов, которые искусственный интеллект добавит к мировому ВВП. ИТ-вендоры демонстрируют завораживающие графики: по корпоративным данным той же OpenAI потребление вычислительных мощностей (так называемых reasoning tokens) выросло в 320 раз за последний год. Советы директоров, загипнотизированные этими цифрами, директивно спускают в подразделения KPI по внедрению нейросетей, ожидая кратного роста эффективности. Однако столкновение этой цифровой эйфории с жесткой физикой экономики вскрывает совершенно иную картину, считает директор по аналитике компании «Авидрос» Михаил Тузов.
Фото: Архив компании «Адвирос»
Фото: Архив компании «Адвирос»
Алюминий XXI века
Начнем с деконструкции макроэкономического чуда. Нам говорят, что ВВП растет благодаря эффективности алгоритмов, но почему-то забывают уточнить структуру этого роста. На заре промышленной эры алюминий называли «твердым электричеством» из-за колоссальной энергоемкости его производства. Современный искусственный интеллект — это алюминий XXI века.
Тот рост ВВП, которому сегодня аплодируют рынки, — это во многом инфляция издержек. В него зашита возросшая стоимость энергии для дата-центров, дефицит вычислительных чипов и гигантская маржа корпораций, продающих подписки на свои алгоритмы. Мы фиксируем парадокс: объем сгенерированных токенов увеличился на сотни процентов, но никто не задает вопрос — обладают ли эти токены реальной потребительской стоимостью?
Более того, пока растут вычислительные мощности, доля реального человеческого труда в экономике падает до исторических минимумов. В США этот показатель рухнул до 53,8% от ВВП — абсолютного антирекорда с 1947 года. В России доля оплаты труда сегодня балансирует на уровне 48,1%, но, учитывая, что ИИ у нас еще не внедряется столь агрессивно, как на Западе, при массовой алгоритмизации этот разрыв рискует стать еще более драматичным. Это не технологическая утопия. Это классическое перераспределение: капитал отщипывает долю труда, чтобы оплатить инфраструктуру ИТ-гигантов.
Корпоративная анафилаксия
Чтобы понять природу этого сопротивления, нужно отказаться от механистического взгляда на бизнес. Корпорация — это не набор шестеренок, это живая организация (концепция The Living Company Ари де Геуса). А любая живая система обладает собственным гомеостазом и иммунитетом, задача которых — защищать структуру от чужеродных вмешательств.
Спустившись с макроуровня внутрь компаний, мы обнаруживаем, что директивное насаждение ИИ вызывает тяжелейший системный конфликт. Сверху давит тщеславие топ-менеджмента, купившего тысячи лицензий ради статуса «инноваторов». Снизу включается закономерный иммунный ответ линейного персонала. Люди не бунтуют открыто. Часть из них начинает симулировать внедрение. Возникает феномен Fake Work — сотрудники генерируют запросы ради «галочки» в логах. Смысл работы подменяется накруткой счетчика использования.
Разумеется, ИТ-вендоры и сами компании работают над тем, чтобы сделать взаимодействие с моделями более устойчивым: улучшают промптинг, ограничивают сценарии, настраивают интерфейсы. И в ряде контуров это действительно дает результат. Но когда доступ к нейросетям выдается широкому кругу сотрудников в общем контексте, возникает ловушка валидации. Сотрудник, который честно пытается делегировать задачу алгоритму, сталкивается с тем, что система меняет Tone of Voice, достраивает недостающие связи или просто выдает правдоподобную неточность. Время, затраченное на проверку такого ответа, зачастую начинает конкурировать со временем самостоятельной работы.
При этом было бы методологической ошибкой объявлять весь производственный опыт внедрения ИИ фикцией. Уже есть отрасли, где алгоритмы дают резкий прикладной эффект — прежде всего в узких, формализуемых и валидируемых задачах: визуальный контроль, подготовка документов, расследование отклонений, анализ рисков. Но именно это и важно: там, где ИИ действительно работает, он работает не как автономный «мыслящий субъект», а как инструмент внутри жестко собранного контура — с понятным выверенным промптом, ограниченной зоной применения и обязательной человеческой проверкой результата. Проблема начинается в тот момент, когда локальный успех пилота начинают выдавать за доказательство ИИ-зрелости всей организации.
Давайте будем честны: мы не можем безапелляционно утверждать, что весь 320-кратный рост токенов — это стопроцентный цифровой мусор. Трагедия менеджмента в другом — мы не знаем точно, какова доля этого мусора. И не узнаем, пока сами не погрузим руки по локоть в аудит этих процессов. А если валидация на местах не проводится (из-за нехватки времени или банальной лени), корпоративная база молча отравляется уверенно написанным бредом.
Рентген для пустоты
Искусственный интеллект не ломает корпорации. Он работает как мощное контрастное вещество. Он просто доказывает, что исторически сложившиеся в компании процессы были, скажем так, не всегда оптимальными.
Разумеется, если прямо попросить ИИ найти логическую «дыру» в регламенте, алгоритм ее найдет. Но алгоритм абсолютно слеп к живому бизнес-контексту. Он не способен понять человеческую, часто спасительную иррациональность. Например, «лишние» движения на технологической линии могут быть заложены мастером специально для выравнивания такта производства. Если алгоритм оптимизирует и уберет эту «неэффективность», весь процесс может встать из-за рассинхронизации.
Трагедия ситуации в том, что алгоритм лишен способности к структурному сопротивлению контексту. Если вы не просите его искать ошибки, а просто скармливаете ему бессмысленный процесс, он не указывает на его абсурдность. Алгоритм его масштабирует. Он послушно заливает управленческие пустоты волной грамматически идеального канцелярского текста. В итоге формируется эхо-камера: руководство читает этот красиво причесанный мусор и радуется росту статистики, искренне принимая оплату счетов за электричество за собственную инновационность.
Текущая корпоративная анафилаксия — это лишь первый акт технологической драмы. Внутренний саботаж пока бьет только по P&L конкретной компании. Настоящая угроза формируется за периметром офисов. На рынке уже появляются маргинальные концепции создания автономных «цифровых двойников» живых экспертов, которые пытаются выпустить галлюцинирующие алгоритмы в зону принятия реальных бизнес-решений. Справится ли с этими цифровыми партизанами макроиммунная система государства, или нам придется жить в мире, где угодливый алгоритм имеет право голоса — вопрос ближайшего нормативного будущего.