Президент США Дональд Трамп объявил, что поручает федеральным ведомствам «немедленно прекратить любое использование» технологических решений от компании Anthropic.
Вскоре после заявления Трампа военный министр США Пит Хегсет присвоил Anthropic статус «угрозы национальной безопасности в цепочке поставок». Это означает, что ни один подрядчик или поставщик, работающий с военными, не может вести дела с компанией.
Противостояние между Anthropic и Пентагоном сводят к спору из-за возможности использования американскими военными продукции компании без каких-либо ограничений, включая автономное вооружение и слежку за гражданами США.
Однако есть и более серьезный нюанс. Обе стороны обсуждали также роль ИИ в отражении гипотетического ядерного удара по США. Представитель военного ведомства сообщил, что вопрос, поставленный перед бизнесменами, звучал так: если по стране будет запущена межконтинентальная баллистическая ракета, смогут ли военные использовать систему Claude от Anthropic, чтобы помочь ее сбить?
По словам чиновника, ответ гендиректора компании был сведен к тому, что Пентагоном может «позвонить нам, и мы все уладим». Представитель Anthropic опроверг это, заявив, что компания согласилась разрешить использование Claude для противоракетной обороны.
Но что, если ИИ пойдет дальше, не ограничится сбиванием ракеты и спровоцирует ответный американский ядерный удар? Полностью исключать такой вариант нельзя, хотя Франция, Великобритания, Китай и США ранее заявляли, что потребуют участия человека во всех решениях, касающихся применения ядерного оружия.
В недавней игре, посвященной ядерной войне, которая проходила в Королевском колледже Лондона, многие ведущие языковые модели, включая ChatGPT, Claude и Google Gemini, быстро отдали предпочтение запуску боеголовок. Это может повлиять на решение человека о применении оружия.
Проблема уже не в том, кто нажимает кнопку. Проблема – кто формирует контекст, оценку угрозы и временные рамки решения. В сценарии перехвата межконтинентальной баллистической ракеты счет идет на минуты.
Если ИИ анализирует спутниковые данные, фильтрует ложные сигналы, моделирует траектории и предлагает вариант реагирования – он уже влияет на решение. Даже если формально человек отдает приказ, психологическое давление скорости и «рекомендации машины» могут превратить человеческий контроль в формальность.
Особенно тревожит то, что в военных симуляциях, включая игру в Королевском колледже Лондона, ведущие языковые модели демонстрировали склонность к эскалации. Это не означает, что ИИ «хочет войны», однако алгоритмы оптимизируют стратегические выигрыши по заданным параметрам, а не моральные ограничения.
В условиях неполной информации и высокой неопределенности логика «предвосхитить угрозу» может привести к выбору удара как рационального шага.
Главный вопрос уже не «передадут ли кнопку ИИ», а «в какой степени ИИ станет архитектором условий, в которых человек будет принимать ядерное решение». И именно эта промежуточная зона – помощь в выборе цели, оценке угрозы, расчете вероятности ответного удара – наиболее уязвима для постепенной автономизации.
Парадоксально, но даже при сохранении формального человеческого контроля реальная степень автономии может расти незаметно – через алгоритмическое давление, скорость и доверие к машинной оценке. И это, возможно, куда более серьезный вызов, чем просто «Skynet с ядерной кнопкой».



