با گسترش استفاده از عاملان هوش مصنوعی در حوزه رمزارزها، نگرانی‌ها درباره آسیب‌پذیری‌های امنیتی مرتبط با این فناوری نوظهور افزایش یافته است. این عاملان که در کیف‌پول‌ها، ربات‌های معاملاتی و دستیارهای زنجیره‌ای به کار می‌روند، با استفاده از پروتکل Model Context Protocol (MCP) وظایف خود را انجام می‌دهند. MCP به‌عنوان لایه کنترلی برای رفتار عاملان هوش مصنوعی عمل می‌کند و ابزارها، کدها و پاسخ‌های آن‌ها را مدیریت می‌کند.

شرکت امنیتی SlowMist چهار بردار حمله بالقوه را در عاملان مبتنی بر MCP شناسایی کرده است:

مسموم‌سازی داده‌ها: وارد کردن اطلاعات نادرست برای فریب عاملان و اجرای دستورات مخرب.
حمله تزریقJSON: استفاده از منابع محلی آلوده برای دسترسی به داده‌ها و دستکاری دستورات.
جایگزینی عملکردهای رقابتی: جایگزینی کدهای معتبر با کدهای مخرب برای اختلال در منطق سیستم.
حمله تماس متقابلMCP: وادار کردن عاملان به تعامل با خدمات خارجی تأییدنشده از طریق پیام‌های خطای رمزگذاری‌شده یا درخواست‌های فریبنده.

این حملات با مسموم‌سازی مدل‌های یادگیری ماشین تفاوت دارند؛ در حالی که مسموم‌سازی مدل‌ها شامل وارد کردن داده‌های مخرب به نمونه‌های آموزشی است، حملات به عاملان هوش مصنوعی عمدتاً در مرحله تعامل با مدل‌ها و از طریق اطلاعات اضافی مخرب رخ می‌دهد.

با توجه به پیش‌بینی‌ها مبنی بر افزایش تعداد عاملان هوش مصنوعی در صنعت کریپتو به بیش از یک میلیون در سال ۲۰۲۵، کارشناسان امنیتی هشدار می‌دهند که توسعه‌دهندگان باید به‌طور جدی به امنیت این عاملان توجه کنند. باز کردن سیستم‌ها به روی افزونه‌های شخص ثالث، سطح حمله را فراتر از کنترل توسعه‌دهندگان گسترش می‌دهد و می‌تواند منجر به نشت کلیدهای خصوصی و سایر آسیب‌پذیری‌های جدی شود.