Пентагон и Anthropic спорят по вопросам военного использования ИИ - Agenda

Пентагон и Anthropic спорят по вопросам военного использования ИИ

26 февраля 2026

Министр обороны США Пит Хегсет дал компании Anthropic, занимающейся разработкой искусственного интеллекта, срок до пятницы, 27 февраля, чтобы предоставить согласие на использование ее технологий для неограниченного военного использования.

В противном случае ей грозят радикальные меры, такие как признание ее угрозой для цепочки поставок или принуждение к соблюдению требований в соответствии с чрезвычайными федеральными полномочиями.

Этот шаг был предпринят после встречи Хегсета с генеральным директором Anthropic Дарио Амодеи для обсуждения конфликта, который длится уже несколько месяцев.

Противостояние началось, когда компания отказалась разрешить использование своих моделей Claude для секретного военного применения, в том числе для потенциально смертоносных автономных миссий без участия человека и для внутреннего массового наблюдения в США.

Ситуация вокруг Anthropic является тестом на то, где проходит граница между национальной безопасностью и сохранением человеческого контроля над технологиями, которые могут менять саму природу войны и гражданских свобод.

Если Пентагон получит неограниченный доступ к моделям вроде Claude, ключевым риском станет их интеграция в цепочку принятия решений о применении силы без обязательного участия человека.

Автономные системы наведения, целеуказания или анализа разведданных, которые напрямую влияют на решение о ликвидации цели, создают эффект «растворенной ответственности»: кто отвечает – командир, разработчик, подрядчик, алгоритм?

Военное применение продвинутых ИИ-систем почти неизбежно запускает гонку вооружений. Если США интегрируют ИИ в автономные боевые системы, то остальные державы будут вынуждены ускорять собственные программы. Это создает стратегическую нестабильность.

Алгоритмические системы, действующие быстрее человека, сокращают «время на размышление» и повышают риск непреднамеренной эскалации. История ядерного сдерживания показывает, насколько опасны автоматизированные механизмы реагирования. ИИ может сделать подобные механизмы еще менее прозрачными.

Спор вокруг Anthropic – это не просто конфликт бизнеса и государства. Это ранний эпизод в формировании архитектуры будущего, где нужно решить: ИИ будет инструментом под жестким человеческим контролем или системой, которая постепенно подменит человеческую ответственность.

В этой дискуссии правда не на стороне министра обороны США.

Интересное