«По нашему мнению, справедливый баланс здесь склоняется в пользу правительства», — заявил состав судей из Апелляционного суда округа Колумбия.
Апелляционный суд США для округа Колумбия отклонил просьбу компании по разработке искусственного интеллекта Anthropic о приостановке решения Министерства обороны США о признании компании угрозой для национальной безопасности.
Состав из трех судей отклонил срочную просьбу о приостановке в среду, постановив, что интересы правительства в контроле над тем, как оно обеспечивает технологию искусственного интеллекта во время активного военного конфликта, перевешивают любой финансовый или репутационный ущерб, который Anthropic может понести из-за этого ярлыка.
Это решение означает, что часть официального решения Министерства обороны о признании продукции Anthropic «угрозой для национальной безопасности» остается в силе.
Такое решение никогда ранее не применялось к американской компании и также блокирует возможность для подрядчиков, работающих с Пентагоном, использовать модели искусственного интеллекта Anthropic. Это может создать опасный прецедент для других технологических компаний, которые не выполняют требования правительства.
«По нашему мнению, справедливый баланс здесь склоняется в пользу правительства», — написал состав из трех судей.
Спор возник из-за соглашения между компанией по разработке искусственного интеллекта и Пентагоном в июле 2025 года о контракте на использование модели искусственного интеллекта Claude как первой большой языковой модели, одобренной для использования в классифицированных сетях.
Однако переговоры провалились в феврале, и правительство попыталось вновь договориться, настаивая на том, что Anthropic должна разрешить военное использование модели Claude без ограничений. Anthropic настаивала на том, что ее технология не должна использоваться для создания смертоносных автономных военных систем и массового внутреннего наблюдения за американцами.
Президент США Дональд Трамп приказал всем федеральным агентствам прекратить использование продукции Anthropic в конце февраля, заявив, что компания совершила «катастрофическую ошибку, пытаясь оказать давление на Министерство войны». Anthropic подала в суд на администрацию Трампа в марте, назвав это «незаконной кампанией возмездия». В конце марта суд Северного округа Калифорнии вынес предварительный запрет против Пентагона в отношении этого решения и временно приостановил директиву Трампа, назвав ее «орвеллианской». Связано: Anthropic ограничивает доступ к модели искусственного интеллекта из-за опасений по поводу кибератак
Однако из-за того, как написан федеральный закон о закупках, Anthropic должна была оспорить это решение на двух отдельных юридических треках — в суде Северного округа Калифорнии на конституционных основаниях и直接 в Апелляционном суде округа Колумбия в соответствии с конкретным законом, который авторизовал это решение.
Решение признало, что Anthropic «вероятно, понесет некоторый ущерб, если не будет приостановлено», и заявило, что «требуется существенная экспедиция». И.о. генерального прокурора США Тодд Бланш заявил в X, что это «громкая победа для военной готовности». Asia Express: Фантомные биткоин-чеки, Китай отслеживает налоги на блокчейне
По материалам CoinTelegraph