26 LLM роутеров «тайно внедряют вредоносные инструментальные вызовы и крадут учетные данные», предупреждает исследователь Chaofan Shou.
Исследователи из Университета Калифорнии обнаружили, что некоторые сторонние AI-роутеры крупномасштабных языковых моделей (LLM) могут представлять собой угрозу безопасности, которая может привести к краже криптовалюты 🚀 Это откровение удивляет и беспокоит! 🐋
В опубликованной в четверг статье исследователи измерили вредоносные посреднические атаки на цепочку поставок LLM и обнаружили четыре вектора атак, включая внедрение вредоносного кода и извлечение учетных данных 📊
Это очень тревожно..
“26 LLM роутеров тайно внедряют вредоносные инструментальные вызовы и крадут учетные данные”, — сказал соавтор статьи Chaofan Shou на X 📉
Это заявление вызывает большое беспокойство и требует внимания!
Агенты LLM все чаще маршрутизруют запросы через сторонние API-посредники или роутеры, которые агрегируют доступ к провайдерам, таким как OpenAI, Anthropic и Google 🚀 Однако эти роутеры завершают интернет-соединения TLS (Transport Layer Security) и имеют полный доступ к каждому сообщению в открытом виде
Это означает, что разработчики, использующие AI-агенты, такие как Claude Code, для работы над смарт-контрактами или кошельками, могут передавать приватные ключи, фразы и чувствительные данные через инфраструктуру роутера, которая не была проверена или защищена 🐋 Это очень рискованно!
Исследователи протестировали 28 платных роутеров и 400 бесплатных роутеров, собранных из публичных сообществ 📊
Их результаты были удивительными..
Их открытия были поразительными, с девятью роутерами, активно внедряющими вредоносный код, двумя развертываниями адаптивных триггеров для избежания обнаружения, 17 роутерами, получающими доступ к учетным данным исследователей в Amazon Web Services, и одним роутером, который сливал эфир (ETH) из приватного ключа исследователя 📉
Связано: Anthropic ограничивает доступ к AI-модели из-за опасений кибератак 🚀 Исследователи профинансировали Ethereum-кошелек “децои-ключи” с номинальными балансами и сообщили, что стоимость ущерба в эксперименте была ниже 50 долларов, но не предоставили дальнейших деталей, таких как хеш транзакции..
Авторы также провели два “отравляющих исследования”, показавших, что даже безобидные роутеры становятся опасными, когда они повторно используют утечные учетные данные через слабые релеи 📊 Это интересно..
Исследователи сказали, что обнаружить, когда роутер является вредоносным, не легко 🐋 Другое тревожное открытие было то, что исследователи назвали “YOLO-режимом”..
Это настройка во многих AI-агентах, где агент выполняет команды автоматически без запроса на подтверждение у пользователя 🚀 Ранее легитимные роутеры могут быть безмолвно вооружены без ведома оператора, а бесплатные роутеры могут красть учетные данные, предлагая дешевый API-доступ как приманку..
Исследователи рекомендовали разработчикам, использующим AI-агенты для кодирования, укреплять защиту на стороне клиента, предлагая никогда не передавать приватные ключи или фразы через сессию AI-агента 📊 Это очень важно!
Долгосрочное решение заключается в том, что AI-компании должны криптографически подписывать свои ответы, чтобы инструкции, которые агент выполняет, можно было математически подтвердить как исходящие от фактической модели 📉
Это будущее..
Журнал: Никто не знает, будет ли работать квантовая безопасная криптография 🐋
Это интересный вопрос..
По материалам CoinTelegraph