BTC $81,715 ▼ 0.835% ETH $2,339 ▼ 1.784% BNB $669 ▲ 0.5% SOL $97 ▲ 0.996% BTC $81,715 ▼ 0.835% ETH $2,339 ▼ 1.784% BNB $669 ▲ 0.5% SOL $97 ▲ 0.996%
Bitcoin

Компанія Anthropic програла перший раунд у боротьбі проти мітки Міністерства оборони США щодо “ризику ланцюга постачання”

“У нашому розумінні, справедливий баланс тут сприяє уряду,” заявила панель суддів від Апеляційного суду округу Колумбія.

Апеляційний суд США для округу Колумбія відхилив прохання компанії з штучного інтелекту Anthropic про призупинення рішення Міністерства оборони США щодо визначення компанії як національного ризику ланцюга постачання.

Три судді відхилили терміновий запит на призупинення у середу, постановивши, що інтерес уряду у контролі над тим, як він забезпечує технологію штучного інтелекту під час активного військового конфлікту, переважує будь-яку фінансову чи репутаційну шкоду, яку Anthropic може зазнати через цю позначку.

Це рішення означає, що частина офіційного визначення Міністерства оборони продукції Anthropic як “ризик ланцюга постачання для національної безпеки” залишається чинною.

Ця позначка ніколи раніше не застосовувалася до американської компанії та також блокує можливість використання моделей штучного інтелекту Anthropic підрядниками, які працюють з Пентагоном. Це може створити небезпечний прецедент для інших технологічних компаній, які не підкоряються вимогам уряду.

“У нашому розумінні, справедливий баланс тут сприяє уряду,” написала панель із трьох суддів.

Суперечка виникла з угоди між компанією штучного інтелекту та Пентагоном у липні 2025 року щодо контракту на створення моделі штучного інтелекту Claude, першої великої мови, затвердженої для використання у класифікованих мережах.

Однак, переговори зазнали невдачі у лютому, коли уряд намагався переглянути угоду та наполягав на тому, щоб Anthropic дозволив військове використання Claude без обмежень. Anthropic підтримувала думку, що її технологія не повинна використовуватися для створення летальних автономних зброї та масового внутрішнього спостереження за американцями.

Президент США Дональд Трамп наказав усім федеральним агентствам припинити використання продукції Anthropic наприкінці лютого, заявивши, що компанія зробила “катастрофічну помилку, намагаючись тискати Міністерство війни.” Anthropic подала позов до адміністрації Трампа у березні, назвавши це “незаконною кампанією помсти.” У кінці березня окружний суд Північного округу Каліфорнії видав тимчасову заборону проти Пентагону щодо визначення та тимчасово призупинив директиву Трампа, назвавши її “орвеллівською”. Пов’язано: Anthropic обмежує доступ до моделі штучного інтелекту через побоювання кібератаки

Однак, через те, як написаний федеральний закон про закупівлі, Anthropic мала оскаржувати визначення на двох окремих юридичних треках — у каліфорнійському окружному суді на конституційних підставах та безпосередньо в Апеляційному суді округу Колумбія згідно зі спеціальним законом, який авторизував визначення.

Рішення визнало, що Anthropic “ймовірно зазнає певної міри незворотної шкоди без призупинення,” і заявило, що “істотна експедиція є виправданою.” Тимчасовий генеральний прокурор США Тодд Бланш сказав, що це була “громка перемога для військової готовності.” Азійський експрес: Фантомні перевірки біткоїна, Китай відстежує податок на блокчейні


За матеріалами CoinTelegraph

Canary Capital подала заявку на створення біржевого… 99,99% трейдерів Polymarket не повинні кидати свою…