26 LLM routers are “secretly injecting malicious tool calls and stealing creds,” warns researcher Chaofan Shou.
Дослідники з Університету Каліфорнії виявили, що деякі маршрутизатори великих мовних моделей (LLM) можуть становити загрозу для безпеки, що може привести до крадіжки криптовалюти 🚀 Це відкриття досить несподіване і заслуговує на увагу!
У публікації, опублікованій у четвер, дослідники описали чотири вектори атак, включаючи вставку шкідливого коду та витягнення даних для авторизації 📊
Це досить серйозна проблема, адже може призвести до значних фінансових втрат.
“26 LLM routers are secretly injecting malicious tool calls and stealing creds,” — сказав співавтор дослідження Chaofan Shou у своєму повідомленні 📉 Це досить тривожна заява, яка свідчить про те, що проблема досить серйозна.
Маршрутизатори LLM все частіше використовуються для маршрутизації запитів через треті сторони або посередників, які агрегують доступ до провайдерів, таких як OpenAI, Anthropic і Google 🐋
Однак ці маршрутизатори мають повний доступ до кожного повідомлення, що може привести до крадіжки конфіденційних даних.
Розробники, які використовують агенти штучного інтелекту для створення смарт-контрактів або гаманців, можуть непомітно передавати приватні ключі, фрази чи інші конфіденційні дані через маршрутизатори, які не були перевірені на безпеку 🚀 Це досить великий ризик, який можна мінімізувати.
Дослідники протестували 28 платних маршрутизаторів і 400 безкоштовних маршрутизаторів, зібраних з публічних спільнот 📊
Результати були досить тривожними, оскільки дев’ять маршрутизаторів активно вставляли шкідливий код, два використовували евазіонні спраїв, 17 отримували доступ до даних дослідників, а один висав Ether (ETH) з приватного ключа дослідника.
Розробники рекомендується посилити захист клієнтської частини, ніколи не дозволяючи приватним ключам або фразам переходити через сесію агента штучного інтелекту 📉 Це досить важливо, адже може призвести до значних фінансових втрат.
Дослідники також виявили, що навіть доброзичні маршрутизатори можуть стати небезпечними, якщо вони повторно використовують витеклі дані через слабкі реле 🐋
Це досить тривожне відкриття, яке свідчить про те, що проблема досить серйозна.
Тривале рішення полягає в тому, щоб компанії штучного інтелекту криптографічно підписували свої відповіді, щоб інструкції, які виконуються агентом, могли бути математично верифіковані як походження від фактичної моделі 🚀 Це досить важливо, адже може призвести до підвищення безпеки.
За матеріалами CoinTelegraph