هاست پرسرعت
فناوری

دوستان جعلی در شبکه‌های اجتماعی، حالا باهوش‌تر از همیشه

دوستان جعلی در شبکه‌های اجتماعی، حالا باهوش‌تر از همیشه

به نظر می‌رسد دوستان قلابی شما در شبکه‌های اجتماعی، خطرناک‌تر شده‌اند!

اگر شما هم فکر می‌کنید که آدم‌ها و دوستان خیالی در فیس‌بوک، اینستاگرام و ایکس(یعنی ربات‌ها) از این به بعد واقعی‌تر و نگران‌کننده‌تر خواهند شد، کاملا حق دارید.
این دوستان جعلی به‌زودی و به توسل به هوش مصنوعی، خواهند توانست با تجزیه و تحلیل فیدها، احساسات و عادات شما، درک و فهم بهتری از شما پیدا کنند و تعامل عمیق‌تری برقرار نمایند.

در واقع نسل بعدی ربات‌ها ، پروفایل‌های روانشناختی برای کاربران ایجاد خواهند کرد و همانند افراد عادی لایک می‌کنند، نظر می‌دهند و تعامل خواهند داشت.
به همین دلیل، لازم است شما هم از این پس هوشیاری بیشتری به خرج دهید و در تعیین اینکه چه چیزی و چه کسی در دنیای دیجیتال، واقعی یا خیالی‌ست، دقیق‌تر باشید.
 

بهینه‌شدن شخصیت‌های جعلی در شبکه‌های اجتماعی

به گزارش gsxr اخیرا دو استاد دانشگاه و کارشناس امنیت به نام‌های برت گلدستاین و برت بنسون در سرمقاله نیویورک تایمز، در باره خطر فزاینده دنیای جعلی باهوش، هشدار داده‌اند.
این دو متخصص، ضمن بررسی انبوهی از اسناد کشف شده توسط موسسه امنیت ملی وندربیلت، نشان داده‌اند که چگونه یک شرکت چینی به نام GoLaxy توانسته شخصیت‌های جعلی را برای فریب و گول زدن، بهینه‌سازی کند.
به گفته این دو نفر: «آنچه GoLaxy را متمایز می‌کند، ادغام هوش مصنوعی مولد با گنجینه‌های عظیم داده‌های شخصی است. سیستم‌های آن به‌طور مداوم پلتفرم‌های رسانه‌های اجتماعی را کاوش می‌کنند تا پروفایل‌های روانشناختی پویا بسازند، به شکلی که محتوای آنها متناسب با ارزش‌ها، باورها، تمایلات عاطفی و آسیب‌پذیری‌های فرد تنظیم شود.»

مطابق این اسناد، شخصیت‌های هوش مصنوعی «قادرند کاربران را به صورت عمیق، درگیر یک تعامل کنند، و محتوایی به کاربر ارائه کنند که ظاهرا معتبر به نظر می‌رسد، در لحظه تطبیق می‌یابد و از شناسایی شدن جلوگیری می‌کند؛ اما نتیجه تعامل، یک موتور تبلیغاتی بسیار کارآمد است و طوری طراحی شده که تشخیص آن از تعامل آنلاین با انسان واقعی تقریبا ممکن نیست.»

به دنبال همین هشدارهاست که معدودی از ایالت‌های آمریکا از جمله یوتا و ایلینوی، در تلاش برای محدود کردن «درمان با هوش مصنوعی» هستند.
 

شخصیت‌های جعلی در شبکه‌های اجتماعی

 

چالش‌های درمان با هوش مصنوعی

به گزارش اکسیوس، یک مطالعه هاروارد بیزینس ریویو در سال جاری میلادی نشان داده که استفاده شماره یک هوش مصنوعی مولد از سوی کاربران، درمان «حمایت و راهنمایی در زمینه چالش‌های روانشناختی» و نیز «ارتباط اجتماعی و عاطفی، گاهی اوقات با بُعد عاشقانه» بوده است.
به گفته نویسندگان مقاله نیویورک تایمز، از آنجا که درمان مبتنی بر هوش مصنوعی، ۲۴ ساعته و ۷ روز هفته در دسترس است، نسبتاً ارزان (و حتی گاهی رایگان است)، استفاده فراوانی از سوی کاربران دارد.

خروجی این تحقیق با یافته‌های بزرگ‌ترین شرکت‌های هوش مصنوعی نیز همخوانی دارد که مطابق آن، «انسان‌ها به طور فزاینده‌ای به هوش مصنوعی برای دوستی و معاشرت روی می‌آورند.»، و نتیجه این امر، مجموعه‌ای از مشکلات احتمالی را به همراه دارد، از جمله اعتماد به ربات‌های غیرقانونی که توصیه‌های مضری ارائه می‌دهند، و خطرناک‌تر از آن، وابستگی ناسالم انسان به یک پدیده غیرواقعی و مصنوعی.

      در همین زمینه بیشتر بخوانید:
      – هوش مصنوعی در دام اطلاعات پزشکی جعلی

از سوی دیگر، نشریه وال استریت ژورنال با بررسی چت‌های عمومی دریافته که ربات‌ها گاهی از فرضیات نادرست کاربران استفاده می‌کنند و راهنمایی غلط ارائه می‌کنند.
بنابراین علاوه بر مفهوم «توهم هوش مصنوعی» که تاکنون استفاده می‌شد، اکنون پزشکان مفهوم دیگری با عنوان «روان‌پریشی هوش مصنوعی» را به‌کار می‌برند.
 

با هوش مصنوعی چه باید کرد؟

کارشناسان توصیه می‌کنند که از آنجا که هوش مصنوعی مدام فقط می‌شود، بازیگران بد نیز باهوش‌تر می‌شوند، بنابراین بهتر است فرض نکنید که هر فرد آنلاینی واقعا یک موجود  واقعی است، چه برسد به یک دوست واقعی.

نمایش بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا