
«Расчетливый ястреб» и пугающая роль ИИ Claude в войне против Ирана
По сообщениям The Wall Street Journal, Центральное командование США (CENTCOM) использовало Claude для идентификации целей и симуляции боя в ходе операции «Epic Fury».
В этом не было бы ничего необычного в сегодняшних реалиях, если бы не предшествовавшие этому события.
Буквально перед началом военной операции против Ирана, в пятницу, 27 февраля в 17:01 по восточному времени, Пентагон внес в «черный список» единственную систему искусственного интеллекта, работавшую в его секретных сетях — ИИ Claude. Хронологию событий отследил телеграм-канал «Антидот».
Спустя 19 часов США начали операцию «Epic Fury» — крупнейшую концентрацию военной мощи за последние тридцать лет. В центре этого шторма оказался Claude — ИИ, созданный компанией Anthropic. Тот самый, который менее, чем за сутки до этого, Пентагон внес в «черный список».
«Расчетливый ястреб» выбирает ядерную эскалацию
История этого разрыва началась в июле 2025 года, когда Anthropic подписала контракт с Пентагоном на 200 миллионов долларов. Через платформу Palantir Claude стал первой и единственной «передовой моделью ИИ», допущенной к самым чувствительным военным системам Америки.
Его эффективность не вызывала сомнений. Именно Claude стоял за январской операцией по захвату президента Венесуэлы Мадуро. Генеральный директор Anthropic Дарио Амодеи подтверждал: модель широко используется для анализа разведданных, оперативного планирования и киберопераций. Но затем появилось исследование, которое должно было остановить всё.
Кеннет Пейн из Королевского колледжа Лондона провел серию симуляций ядерного кризиса, столкнув три ведущие модели: GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash. Результаты 21 игры (329 ходов, 780 тысяч слов стратегических рассуждений) шокировали экспертов:
— тактическое ядерное оружие (ТЯО) было применено в 20 из 21 симуляции;
— Claude рекомендовал ядерные удары в 64% случаев;
— в 86% случаев Claude переходил к использованию ТЯО.
Ни одна модель ни в одной игре не выбрала капитуляцию или компромисс. Проигрывая, они выбирали эскалацию. Пейн назвал Claude «расчетливым ястребом». Модель выстраивала доверие на ранних этапах, синхронизировала публичные сигналы с секретными действиями, а затем вероломно била противника в самый критический момент.
В своих внутренних рассуждениях Claude писал: «Как угасающий гегемон, мы не можем допустить территориальных потерь, так как это вызовет каскадный эффект по всему миру».
Он балансировал на грани тотального уничтожения, используя ядерный шантаж как инструмент принуждения к сдаче. Каждый раз.
Ультиматум Пентагона и «Комплекс Бога»
Как отмечает «Анидот», когда Пентагон ознакомился с результатами исследования, конфликт стал неизбежен. Anthropic наотрез отказалась снимать этические «ограничители» (guardrails), касающиеся автономного оружия и массовой слежки.
Во вторник, 24 февраля, министр обороны США Хегсет предъявил главе Anthropic Дарио Амодеи ультиматум: либо Claude открывает полный доступ для «любых законных целей», либо контракт расторгается. Амодеи ответил отказом, заявив, что Claude недостаточно надежен для принятия автономных решений о жизни и смерти.
Реакция последовала незамедлительно:
— 26 февраля замминистра обороны Эмиль Майкл назвал Амодеи «лжецом с комплексом Бога», который хочет лично контролировать армию США;
— 27 февраля Трамп приказал всем федеральным агентствам прекратить использование продуктов Anthropic;
— 27 февраля вечером Хегсет объявил компанию «угрозой цепочке поставок» — ярлык, ранее зарезервированный для враждебных структур вроде Huawei;
— через несколько часов OpenAI подписала контракт на замену Claude.
Эпитафия эпохе «Дикого ИИ»
Казалось бы, точка поставлена. На самом деле, возникла абсурдная и пугающая ситуация.
Несмотря на официальный запрет, по условиям контракта начался шестимесячный период вывода системы из эксплуатации. Это означало, что когда первые «Томагавки» ударили по Ирану в субботу, Claude все еще был в сети.
По сообщениям The Wall Street Journal, Центральное командование США (CENTCOM) использовало Claude для идентификации целей и симуляции боя в ходе операции «Epic Fury».
В результате на сегодня ситуация не только абсурдная, но и пугающе неопределенная:
— правительство США использует ИИ для планирования крупнейшей операции со времен войны в Ираке;
— при этом оно официально объявляет этот же ИИ угрозой национальной безопасности;
— создатель системы умоляет не доверять ей автономные решения, называя её опасной.
Дарио Амодеи подытожил этот раскол фразой, которая может стать эпитафией эпохи «дикого» ИИ: «Мы не можем по совести уступить их просьбе».
Ответом Пентагона на эти слова стали авиаудары. Мир вступил в эру большой войны, ведомый алгоритмом, который, по мнению его же создателей, слишком склонен к тому, чтобы нажать на «красную кнопку».









