Министр обороны США Пит Хегсет дал компании Anthropic, занимающейся разработкой искусственного интеллекта, срок до пятницы, 27 февраля, чтобы предоставить согласие на использование ее технологий для неограниченного военного использования.
В противном случае ей грозят радикальные меры, такие как признание ее угрозой для цепочки поставок или принуждение к соблюдению требований в соответствии с чрезвычайными федеральными полномочиями.
Этот шаг был предпринят после встречи Хегсета с генеральным директором Anthropic Дарио Амодеи для обсуждения конфликта, который длится уже несколько месяцев.
Противостояние началось, когда компания отказалась разрешить использование своих моделей Claude для секретного военного применения, в том числе для потенциально смертоносных автономных миссий без участия человека и для внутреннего массового наблюдения в США.
Ситуация вокруг Anthropic является тестом на то, где проходит граница между национальной безопасностью и сохранением человеческого контроля над технологиями, которые могут менять саму природу войны и гражданских свобод.
Если Пентагон получит неограниченный доступ к моделям вроде Claude, ключевым риском станет их интеграция в цепочку принятия решений о применении силы без обязательного участия человека.
Автономные системы наведения, целеуказания или анализа разведданных, которые напрямую влияют на решение о ликвидации цели, создают эффект «растворенной ответственности»: кто отвечает – командир, разработчик, подрядчик, алгоритм?
Военное применение продвинутых ИИ-систем почти неизбежно запускает гонку вооружений. Если США интегрируют ИИ в автономные боевые системы, то остальные державы будут вынуждены ускорять собственные программы. Это создает стратегическую нестабильность.
Алгоритмические системы, действующие быстрее человека, сокращают «время на размышление» и повышают риск непреднамеренной эскалации. История ядерного сдерживания показывает, насколько опасны автоматизированные механизмы реагирования. ИИ может сделать подобные механизмы еще менее прозрачными.
Спор вокруг Anthropic – это не просто конфликт бизнеса и государства. Это ранний эпизод в формировании архитектуры будущего, где нужно решить: ИИ будет инструментом под жестким человеческим контролем или системой, которая постепенно подменит человеческую ответственность.
В этой дискуссии правда не на стороне министра обороны США.



