چگونه از هوش مصنوعی برای خطرآفرینی استفاده میشود؟
چگونه از هوش مصنوعی برای خطرآفرینی استفاده میشود؟
دیپ فیک و اطلاعات نادرست
دیپ فیکها در رسانههای اجتماعی در حال ظهور هستند و واقعیت و داستان را در دنیای قطبی شده سیاست آمریکا مخلوط میکنند.
دیپفیکها ویدیوهایی هستند که واقعی به نظر میرسند، اما واقعی نیستند و توسط الگوریتمهای هوش مصنوعی آموزش داده شده بر روی بسیاری از ویدیوهای آنلاین ایجاد شدهاند.
اگرچه این رسانههای تولید شده به صورت دیجیتالی چندین سال است که در دسترس بودهاند، اما قابلیتهای آنها در طول سال گذشته به دلیل انبوهی از ابزارهای جدید “هوش مصنوعی مولد” مانند MadeGirny افزایش یافته است که ایجاد دیپفیک متقاعدکننده را آسان و ارزان میکند.
محققان در گزارشی در ماه مارس گفتند که شرکتهایی مانند OpenAI و مایکروسافت میتوانند از ابزارهای ایجاد تصویر هوش مصنوعی برای تولید تصاویری استفاده کنند که ممکن است اطلاعات گمراهکننده مربوط به انتخابات و رایگیری را ترویج کند، علیرغم اینکه این دو شرکت با ایجاد محتوای گمراهکننده مبارزه میکنند.
برخی از کمپینهای اطلاعات نادرست به سادگی از توانایی هوش مصنوعی در تقلید از مقالات خبری واقعی به عنوان راهی برای انتشار اطلاعات نادرست استفاده میکنند.
در حالی که پلتفرمهای رسانههای اجتماعی بزرگ مانند فیس بوک، توییتر و یوتیوب تلاشهایی را برای مسدود کردن و حذف دیپ فیک انجام داده اند، اثربخشی این تلاشها در مبارزه با چنین محتوایی متفاوت است.
سلاحهای بیولوژیکی
جامعه اطلاعاتی ایالات متحده، اندیشکدهها و دانشگاهیان به طور فزایندهای نگران خطرات ناشی از عوامل خارجی متخاصم با دسترسی به قابلیتهای پیشرفته هوش مصنوعی هستند.
محققان Gryphon Scientific و Rand Corporation توضیح دادند که مدلهای پیشرفته هوش مصنوعی میتوانند اطلاعاتی را ارائه دهند که به ساخت سلاحهای بیولوژیکی کمک میکند.
گریفون مطالعه کرده است که چگونه بازیگران متخاصم از الگوهای زبانی بزرگ برای آسیب رساندن به علوم زیستی استفاده میکنند.
طبق این گزارش، آنها میتوانند اطلاعاتی را ارائه دهند که ممکن است با ارائه اطلاعات مفید، دقیق و درست در هر مرحله از این مسیر، از یک بازیگر شرور در ایجاد یک سلاح بیولوژیکی حمایت کند.
مدلهای زبان بزرگ، برنامههای رایانهای هستند که از متنهای بزرگ برای تولید پاسخ به پرسشها استفاده میکنند.
گریفون به این نتیجه رسید که یک مدل زبانی بزرگ ممکن است، برای مثال، اطلاعات سطح فوق دکترا را برای حل مشکلاتی که در حین کار بر روی یک ویروس قادر به انتشار یک بیماری همه گیر، ارائه دهد.
شرکت RAND هم توضیح داده است که مدلهای زبانی بزرگ ممکن است به برنامهریزی و اجرای یک حمله بیولوژیکی کمک کنند.
او دریافت که یک مدل زبانی بزرگ میتواند به عنوان مثال روشهایی را برای پراکندگی ماده سمی بوتاکس در هوا پیشنهاد کند.
سلاحهای دیجیتال
وزارت امنیت داخلی ایالات متحده در ارزیابی تهدیدات داخلی خود در سال ۲۰۲۴ اعلام کرد که بازیگران دیجیتال احتمالاً از هوش مصنوعی برای “توسعه ابزارهای جدید برای فعال کردن حملات دیجیتالی گسترده تر، سریع تر، کارآمدتر و گریزان تر” به زیرساختهای حیاتی، از جمله خطوط لوله نفت و گاز و راه آهن استفاده میکنند.
این وزارتخانه گفت چین و سایر بازیگران متخاصم در حال توسعه فناوری هوش مصنوعی هستند که میتواند دفاع دیجیتال ایالات متحده را تضعیف کند، از جمله برنامههای هوش مصنوعی مولد که از حملات بدافزار پشتیبانی میکنند.
مایکروسافت در گزارشی در ماه فوریه اعلام کرد که گروههای هکر وابسته به دولتهای چین و کره شمالی و همچنین اطلاعات نظامی روسیه را در تلاش برای تنظیم دقیق حملات آنلاین خود با استفاده از الگوهای بزرگ زبانی، ردیابی کرده است.
منبع: باشگاه خبرنگاران جوان
مجله خبری gsxr