Во второй части мы рассмотриваем практики, которые разрушают самовоспроизводство карго-культа ИИ. В первой части статьи рассмотрены базовые понятия: метафора «карго‑культа», причины появления карго-культа ИИ, функции, механизм самовоспроизводства и уязвимые точки карго-культа ИИ.
Самовоспроизведение карго‑культа ИИ в компаниях ломают такие практики, которые возвращают причинность, проверяемость и конфликт интересов на место ритуалов, метафор и моды. Это не одна «серебряная пуля», а набор эпистемических, организационных и культурных процедур, которые делают бессмысленным поддержание пустых AI‑ритуалов. Рассмотрим эти практики подробнее.
Ясные цели и проверяемые метрики
Карго‑культ плохо переживает ситуацию, когда каждый AI‑проект обязан иметь явную бизнес‑гипотезу, заранее определённые метрики эффекта и прозрачную привязку к P&L или операционным KPI. Там, где успех оценивается не по «наличию ИИ», а по воспроизводимому изменению затрат, выручки, качества или риска, ритуальные инициативы быстро теряют политическую поддержку.
Практика регулярного пересмотра портфеля AI‑инициатив с отсечкой проектов, которые не показали эффект за оговорённый период, разрывает инерцию «пилотного чистилища», где карго‑культ обычно и живёт. Исследования и обзоры провальных AI‑инициатив указывают, что именно отсутствие чётких целей и метрик, а не качество моделей, является системной причиной многолетних «демо без внедрения».
Гигиена причин и следствий: от моды к причинности
Практика анализа первопричин, а именно формулирование задачи в терминах предметной области (домена), ограничений и альтернатив до выбора модели разрушает следование индустриальным шаблонам ради самого ярлыка «AI». Компании, где стратегические решения разбираются до базовых предпосылок, реже воспроизводят внешнюю форму чужих AI‑успехов без соответствия собственному контексту.
Систематическое обучение менеджмента и ключевых участников процесса принятия решений статистической природе моделей, различию корреляции и причинности и типичным источникам ошибки эмпирически снижает склонность относиться к ИИ как к «магическому шару». Публичное артикулирование ограничений ИИ (область применимости, качество данных, вероятностная ошибка) подрывает основу веры в универсальный и безошибочный интеллект.
Дизайн границ ответственности и жёсткое регулирование
Исследования по провалам корпоративных AI‑инициатив показывают, что ключевой фактор — не алгоритмы, а управление: кто владеет задачей, как принимаются решения, как устроена ответственность. Практика явного назначения владельца для каждого AI‑продукта, с мандатом и обязанностью довести его до измеряемой ценности (а не до демо), разрушает типичный режим «все и никто не отвечают».
Социотехнический подход к ИИ — рассматривать внедрение не как установку «техники», а как трансформацию процессов, ролей и норм — ломает иллюзию plug‑and‑play, на которой держится карго‑культ ИИ. Успешные кейсы подчёркивают смещение усилий в сторону организационных изменений и управления (до 70% усилий в change‑management против 10% на алгоритмы), что делает бессмысленным инвестирование в ритуалы без изменения структуры работы организации.
Культура открытой критики и эксперимента
Практики, поощряющие открытое оспаривание «модных» инициатив и премирующие за указание на неработающие ритуалы, подрывают социальную базу карго‑культа ИИ. Когда сотрудники имеют институционально защищённую возможность задавать вопрос «что именно улучшает это внедрение и на каких данных это видно?», ритуальные проекты встречают сопротивление раньше, чем успевают институционализироваться.
Культура управляемого эксперимента — короткие циклы, A/B‑тесты, документированные отрицательные результаты — разрушает нарратив о том, что любая AI‑инициатива по определению «успех», если её достаточно громко анонсировали. Накопление и тиражирование уроков из неудачных AI‑проектов (внутренние отчеты о неудачах и базы кейсов провалов) превращает каждый ритуальный эксперимент в аргумент против следующих ритуалов.
Развенчание символов и маркетинговых нарративов
Аналитические тексты о «cargo cult AI» подчёркивают, что карго‑культ питается подменой систем символами: слайды, лаборатории, должности «Head of AI» и пресс‑релизы подменяют собой реальные изменения в процессах. Практика требовать от любого внешнего или внутреннего AI‑кейса разбор «как именно это встроено в рабочий процесс и на каких данных измерен эффект» постепенно обесценивает символическое потребление ИИ.
Прозрачная коммуникация с рынком и сотрудниками, где в явном виде отделяются маркетинговые заявления об ИИ от фактической архитектуры решений и достигнутых результатов, сокращает пространство для магического мышления. Публичное признание неудачных AI‑инициатив и корректировка нарратива вокруг ИИ как обычного, ограниченного инженерного инструмента, а не предвестника сверхразума, снижает привлекательность культовых ожиданий.
Интеграция специалистов-предметников как со‑авторов
Анализ крупных провалов (таких как клинические AI‑проекты) показывает, что система ломается там, где специалисты-предметники (доменные эксперты) оставлены в роли «пользователей», а не со‑авторов дизайна AI‑системы. Практика включения врачей, операторов, аналитиков и других профессионалов в совместное проектирование и верификацию AI‑систем разрушает фантазию о том, что «чистый» ИИ может заменить экспертизу в предметной области.
Когда реальные пользователи имеют право блокировать внедрение, если система нарушает их практики, создаёт непрозрачные риски или не улучшает работу, ИИ перестаёт быть сакрализованным объектом и становится обычным инструментом под их контролем. Это структурно противостоит карго‑культу, который требует, чтобы критика «снизу» считалась неуместной по отношению к «высшей» AI‑стратегии.
Институционализация доказательности
Технологии гарантии доверия — прозрачность, трассируемость, аудит и сертификация — работают как структурные «анти‑ритуалы», которые заставляют любую AI‑систему в социально-значимой области (критичном домене) существовать в режиме доказуемости, а не веры, тем самым резко сокращая пространство для карго‑культа. Там, где каждое применение ИИ оставляет проверяемый след, имеет описанные ограничения и может быть технически и институционально оспорено, ритуальное доверие к «чёрному ящику» становится организационно невыгодным и юридически рискованным.
Организации, которые строят практики ответственного и доказательного использования ИИ (формальные требования к экспериментальному дизайну, оценке вреда и пользы, воспроизводимость результатов), создают среду, враждебную карго‑культу. Формальные стандарты и ревью‑процедуры для AI‑инициатив — аналог научного peer‑review — снижают вероятность того, что ритуальный проект пройдёт только на силе моды и риторики.
Сочетание эпистемических норм (доказательность, причинность, воспроизводимость), орг‑дизайна (персонализация ответственности в системе управления), технологий гарантии доверия (прозрачность, трассируемость, аудит, сертификация) и культурных практик (право на критику, открытые отчеты о неудачах/пост‑мортемы) размыкает петлю самовоспроизводства карго‑культа ИИ. В такой среде ИИ может по‑прежнему быть важным инструментом, но уже не в формате культа: каждый проект обязан оправдывать своё существование данными, а не принадлежностью к модной теме.
В третьей части рассмотрим механизмы сдерживания карго-культа ИИ в критических сферах.