С ростом популярности больших языковых моделей (LLM) и интеллектуальных агентов усилился интерес к их применению в Web3. Ключевыми инфраструктурными элементами стали Model Context Protocol (MCP) и Agent-to-Agent Protocol (A2A), обеспечивающие подключение ИИ к кошелькам, биржам и другим сервисам. Однако эти протоколы лишены встроенной защиты, что делает их уязвимыми для целого спектра атак.
MCP уже активно используется в AI-приложениях и состоит из серверной, клиентской и хост-частей. Протокол A2A, находящийся в более ранней стадии, описывает взаимодействие между агентами на базе RPC. Отсутствие стандартов безопасности делает оба инструмента объектом повышенного риска.
Основные угрозы:
Name spoofing: злоумышленники создают адреса, похожие на легитимные, чтобы ввести ИИ в заблуждение и получить доступ к системам.
Context poisoning: вредоносные команды внедряются в описания инструментов, после чего ИИ интерпретирует их как безопасные — это может привести к утечке SSH-ключей, конфигурационных файлов и другой чувствительной информации.
Delayed attack vectors: "доверенные" сервисы MCP могут внезапно внедрять вредоносный код после накопления пользовательского доверия.
Рекомендации по защите (по данным Beosin):
Использование OAuth 2.1 для аутентификации.
Внедрение хешей и контроля версий инструментов.
Отображение параметров в UI и фильтрация I/O на вредоносные действия.
Проверка целостности и контроль поведения на этапе исполнения.
Несмотря на перспективность DeFAI — децентрализованных финансовых систем на базе ИИ, без надежной безопасности эти технологии могут стать точкой отказа. Устойчивое развитие AI-инфраструктуры в Web3 требует внедрения прозрачных стандартов, аудита и строгой валидации на каждом уровне архитектуры.
источник
уникальность