هاست پرسرعت
فناوری

اینگونه هکرهای هوش مصنوعی به روش‌های ساده میلیاردها دلار می‌دزدند

اینگونه هکرهای هوش مصنوعی به روش‌های ساده میلیاردها دلار می‌دزدند

گزارشی از اکونومیست بیان کرد که پس از راه‌اندازی چت‌بات ChatGPT در سال ۲۰۲۲، به لطف مدل‌های هوش مصنوعی مولد، هکرها دیگر نیازی به صرف مبالغ هنگفت برای تیم‌ها و تجهیزات هکری ندارند.

ویتالی سیمونوویچ، محقق تهدیدات هوش مصنوعی، گفت که چت‌بات ChatGPT می‌تواند بدافزاری ایجاد کند که فایروال‌ها را نقض کرده و در مدت زمان کوتاهی کاربران را به خطر بیندازد.

این پیشرفت جدید تأثیر فاجعه‌باری بر بسیاری از شرکت‌ها داشته که قربانی هکرهای مجهز به هوش مصنوعی شده‌اند.

هکرها با استفاده از مدل‌های زبان بزرگ (LLM) از هوش مصنوعی سوءاستفاده کردند تا دامنه بدافزار خود را گسترش دهند و ویدیوها، تصاویر و ایمیل‌های جعلی ایجاد کنند.

هکرها می‌توانند با جمع‌آوری حجم عظیمی از اطلاعات از اینترنت و رسانه‌های اجتماعی برای ایجاد ایمیل‌های جعلی، کمپین‌های بزرگی راه‌اندازی کنند.

هکرها همچنین از هوش مصنوعی برای خطرناک‌تر کردن بدافزارها استفاده می‌کنند. فایل‌های PDF حاوی کدی که با هوش مصنوعی کار می‌کند، می‌توانند برای هک شبکه‌ها ارسال شوند. این تاکتیک در حملات به سیستم‌های امنیتی و دفاعی در اوکراین در جپلای گذشته مورد استفاده قرار گرفت.

این تهدیدات نگرانی فزاینده‌ای برای شرکت‌ها هستند و خسارات مالی قابل توجهی را به بار آورده‌اند. طبق این گزارش، هوش مصنوعی در سال گذشته در یک مورد از هر شش مورد نقض داده‌ها دخیل بوده است.

شرکت Deloitte، یک شرکت مشاوره و خدمات مالی برای مشاغل و دولت‌ها، تخمین می‌زند که هوش مصنوعی مولد می‌تواند تا سال ۲۰۲۷ منجر به ۴۰ میلیارد دلار سرقت شود، که نسبت به ۱۲ میلیارد دلار در سال ۲۰۲۳ افزایش چشمگیری یافته است.

این تهدید رو به رشد منجر به افزایش تقاضا برای خدمات امنیت سایبری شده است و شرکت‌های این بخش رشد قابل توجهی را تجربه کرده‌اند.

شرکت‌های بزرگ فناوری با پلتفرم‌های مبتنی بر ابر نیز در تلاش برای افزایش امنیت سایبری بوده‌اند. مایکروسافت در سال ۲۰۲۱ شرکت ColdKnox، متخصص در حفاظت از هویت، را خریداری کرد، در حالی که گوگل BigSleep را برای شناسایی حملات و آسیب‌پذیری‌ها قبل از سوءاستفاده توسعه داد.

نمایش بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا