Все думают, что главная угроза цифрового суверенитета в эпоху ИИ — это вражеские хакеры или восстание машин, но на самом деле боевая система чаще ломается из-за банального корпоративного контракта. Потому что когда в контуре принятия смертоносных решений сталкиваются амбиции политиков, этика разработчиков и экстренная миграция серверов, возникает не технологическое превосходство, а классический конфликт версий с непредсказуемым исходом.
Миграция длиной в одну ночь
Каждый ИТ-директор или системный архитектор хотя бы раз в жизни переживал леденящий душу опыт экстренного переезда на новый софт за выходные. Вы переписываете доступы, мигрируете базы, молитесь богам аптайма и надеетесь, что в понедельник бухгалтерия хотя бы сможет открыть 1С. А теперь представьте, что вместо бухгалтерии у вас — армия США, вместо 1С — алгоритмы выбора целей, а дедлайн переезда — утро перед массированным ракетным ударом по другому государству. Именно это произошло за кулисами операции «Эпическая ярость» (Epic Fury) 28 февраля 2026 года, когда США нанесли удары по Ирану. Как отмечает в своем разборе небезызвестный «Кибердед» (бывший офицер спецслужб Андрей Масалович), атака стала не просто военной операцией, а масштабным стресс-тестом боевого искусственного интеллекта (Military AI).
Эпическая ярость и корпоративная этика
За сутки до вылета ракет случился беспрецедентный корпоративно-государственный коллапс. Президент США Дональд Трамп издал указ, запрещающий военным использовать технологии Anthropic (создателей нейросети Claude). Причина кроется в банальном отказе гражданских пиджаков принимать на себя риски обвинений геноциде. Руководство стартапа наотрез отказалось убирать человека из контура принятия решений (Human-in-the-loop) при нанесении смертельных ударов.
В логике Anthropic их система была просто «недостаточно надежна» для того, чтобы самостоятельно убивать людей без человеческого контроля. В логике Трампа это оказалось навязыванием армии «левой повестки» (Woke agenda) и недопустимой слабостью.
В итоге Пентагон совершает мгновенный пивот: переводит свои системы управления на закрытые контуры от OpenAI, чей генеральный директор Сэм Альтман (Sam Altman) оказался куда более сговорчивым парнем и быстро подписал все нужные бумаги.
Физическое противоречие Скайнета
С точки зрения теории решения изобретательских задач (ТРИЗ), перед архитекторами Пентагона встало жесточайшее физическое противоречие:
- Система должна быть полностью автономной, чтобы обеспечить скорость реакции на поле боя, превосходящую возможности человеческого мозга.
- Система должна строго управляться человеком, чтобы избежать юридической катастрофы для вендора в случае ошибки.
Экстренная миграция боевого управления с архитектуры Anthropic на OpenAI в условиях «тумана войны» (Fog of war) неминуемо создала колоссальные риски. Когда вы за ночь меняете нейросеть, управляющую дронами, конфликт весовых коэффициентов (Weights) моделей становится лишь вопросом времени. Это классическая и до боли знакомая иллюстрация термина Vendor Lock-in (привязка к одному поставщику) в критически важных системах (Mission-critical systems), возведенная в абсолют.
Желаемое вместо действительного (и галлюцинации пропаганды)
А вот здесь начинается самое интересное — ловушка нарратива. Эксперт в своем обзоре с умным видом заявляет: из-за системных ошибок американского ИИ при миграции, высшее руководство Ирана якобы чудесным образом уцелело. Звучит как отличный, успокаивающий сюжет о провале бездушных западных технологий. Однако реальность смотрит на нас честнее, чем мы сами. По данным международных новостных агентств, в результате ударов погибли тысячи людей, включая верховного лидера и ряд высших должностных лиц. Парадокс заключается в том, что аудитории приятнее верить в «глупую американскую железку, которая все сломала», чем признать объективный факт: экстренный переезд алгоритмов действительно создал хаос под капотом, но никак не отменил фатальной эффективности самого оружия. Мы пытаемся демистифицировать технологическое могущество оппонента (выдавая желаемое за действительное — Wishful thinking), чтобы просто снизить собственную тревожность.
Уроки для выживших
Так о чем же на самом деле история с отказом Anthropic? О высоком гуманизме программистов Кремниевой долины, спасающих мир от Терминатора? Это не забота о ценности человеческой жизни. Это банальное управление корпоративными рисками компании (Liability risks), юристы которой очень не хотят однажды оказаться на скамье подсудимых в Гааге за соучастие в военных преступлениях. И за это их сложно винить. Ну конечно.