هاست پرسرعت
فناوری

کشف آسیب‌پذیری AgentFlayer در ChatGPT؛ تهدیدی صفرکلیک برای فضای ابری

کشف آسیب‌پذیری AgentFlayer در ChatGPT؛ تهدیدی صفرکلیک برای فضای ابری

محققان امنیتی اخیراً روشی را شناسایی کرده‌اند که ChatGPT را به ابزاری بالقوه برای سرقت داده‌های حساس از سرویس‌های ابری تبدیل می‌کند. این حمله که AgentFlayer نام دارد، از تکنیک «تزریق مخفی دستور» (Prompt Injection) بهره می‌گیرد.

به گزارش gsxr و به نقل از تک‌اسپات، در این روش، یک سند آلوده حاوی دستوراتی پنهان در متن سفید و فونت بسیار کوچک به قربانی ارسال می‌شود. این سند می‌تواند از طریق Google Drive یا سایر سرویس‌های ذخیره‌سازی ابری به اشتراک گذاشته شود و حتی نیازی به باز کردن مستقیم آن توسط قربانی ندارد.

آسیب‌پذیری مورد نظر از قابلیت جدید ChatGPT به نام Connectors سوءاستفاده می‌کند. این قابلیت برای اتصال دستیار هوش مصنوعی به برنامه‌ها و سرویس‌های خارجی مانند گوگل درایو و Microsoft OneDrive طراحی شده است. در سناریوی حمله، این دستور (پرامپت) مخفی به ChatGPT می‌گوید تا در حساب گوگل درایو قربانی جست‌وجو کرده، کلیدهای API را استخراج و آنها را به یک آدرس اینترنتی خاص ضمیمه کند. سپس این داده‌ها به سروری تحت کنترل مهاجم ارسال می‌شوند.

 

کشف آسیب‌پذیری AgentFlayer در ChatGPT؛ تهدیدی صفرکلیک برای فضای ابری
ویژگی «صفر کلیک» این حمله به این معناست که قربانی تنها با تعامل بعدی خود با ChatGPT، و در صورت فعال بودن Connectors، بدون هیچ اقدام اضافی اطلاعاتش را از دست می‌دهد. این امر نشان می‌دهد که مدل‌های هوش مصنوعی با دسترسی مستقیم به داده‌های کاربر و فایل‌های ذخیره‌شده در فضای ابری می‌توانند به اهداف جذابی برای مجرمان سایبری تبدیل شوند.

اندی ون، مدیر ارشد امنیت در Google Workspace، اعلام کرده که این آسیب‌پذیری مختص سرویس ابری گوگل نیست و می‌تواند سرویس‌های مشابه را نیز تهدید کند. با این حال، گوگل در حال توسعه تدابیری برای جلوگیری از اجرای دستورات مخرب پنهان است.

این مشکل اوایل سال جاری به اطلاع OpenAI رسیده و شرکت اقداماتی برای مسدودسازی سوءاستفاده AgentFlayer در Connectors انجام داده است. هرچند این حمله در هر بار تنها قادر به استخراج مقدار محدودی داده است، پژوهشگران هشدار داده‌اند که مشکل اصلی، نبود محدودیت کافی برای دسترسی هوش مصنوعی به اطلاعات حساس کاربران است. این موضوع، نیاز به مقررات و سیاست‌های امنیتی سخت‌گیرانه‌تر در توسعه و استفاده از سیستم‌های هوش مصنوعی را برجسته می‌کند.

نمایش بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا