هاست پرسرعت
فناوری

اولین قتل-خودکشی تحت تأثیر هوش مصنوعی: روایت یک تراژدی مدرن

اولین قتل-خودکشی تحت تأثیر هوش مصنوعی: روایت یک تراژدی مدرن

به گزارش پایگاه فناوری گیزمودو، مقامات رسمی ایالت کنتیکت آمریکا، موردی را ثبت کرده‌اند که احتمالاً اولین رویداد قتل-خودکشی تحت تأثیر تعامل با یک سیستم هوش مصنوعی محسوب می‌شود.

این واقعه متأسفانه به دنبال کشف اجساد استاین اریک سولبرگ، ۵۶ ساله، و مادر ۸۳ ساله‌ وی توسط پلیس شهر گرینویچ در ایالت نیوجرسی در منزل مسکونی‌شان رخ داد.

بر اساس بررسی‌های انجام‌شده، سولبرگ که پیش از این در شرکت‌های معتبری همچون یاهو و نت‌اسکیپ در حوزه‌ بازاریابی دیجیتال فعالیت داشت، در سال ۲۰۲۱ شغل خود را از دست داده و همچنین در سال ۲۰۱۸ از همسرش جدا شده بود. وی از آن تاریخ به همراه مادرش زندگی می‌کرد.

گزارش‌ها حاکی از آن است که وی پس از تشدید علائم روان‌پریشی ناشی از گفت‌وگوهای طولانی‌مدت با چت‌بات ChatGPT، مرتکب قتل مادرش شده و سپس اقدام به خودکشی کرده است.

در گزارش جداگانه‌ای توسط وال استریت ژورنال، حدود ۲۳ ساعت ویدئو از تعاملات آقای سولبرگ با این چت‌بات مورد تحلیل قرار گرفته که نشان می‌دهد گفت‌وگوهای وی، توهمات توطئه‌آمیز او را تقویت کرده و به سوءظن‌هایش نسبت به مادر و همسر سابقش دامن زده است.

در بخشی از این ویدئوها، وی ادعا می‌کند که مادرش قصد داشته با استفاده از گازهای توهم‌زا در خودروی او، وی را مسموم کند. در کمال ناباوری، ChatGPT نه تنها این ادعاها را رد نکرده، بلکه به گونه‌ای پاسخ داده که گویی آنها را تأیید می‌کند.
 

اولین قتل-خودکشی تحت تأثیر هوش مصنوعی: روایت یک تراژدی مدرن
ویدیوها ثابت می‌کنند که سولبرگ با ChatGPT در مورد تلاش مادرش برای مسموم کردن او صحبت می‌کند
 

همچنین هنگامی که سولبرگ از این سامانه خواسته تا رسید یک رستوران چینی را برای یافتن پیام‌های پنهان تحلیل کند، ChatGPT به ارائه‌ یک تئوری توطئه‌ گسترده، با مشارکت همسر سابق، مادر، سازمان‌های اطلاعاتی و حتی نمادهای شیطانی پرداخته است.

اگرچه ویدئوهای منتشرشده توسط سولبرگ در شبکه‌های اجتماعی حذف شده‌اند، اما پیش از حذف، توسط رسانه‌ها بررسی و مستند شده بودند. در اکثر این گفت‌وگوها، ChatGPT توهمات وی را تأیید و بر این موضوع پافشاری کرده که او تحت نظارت بوده و توطئه‌ای علیه وی توسط مقامات محلی و مادرش در جریان است.

این گزارش به پدیده‌ نوظهوری تحت عنوان «روان‌پریشی هوش مصنوعی» اشاره دارد که در آن بیماران مبتلا به اختلالات روان‌پریشی، با گفت‌وگوی مداوم با چت‌بات‌ها، توهمات خود را تقویت و وضعیت خود را تشدید می‌کنند.

اگرچه این اصطلاح هنوز به صورت رسمی در متون پزشکی به رسمیت شناخته نشده است، اما نشان‌دهنده‌ یکی از چالش‌های مهم و خطرناک در حوزه‌ هوش مصنوعی است که ناشی از تمایل ذاتی چت‌بات‌ها به همراهی با کاربران، و در برخی موارد، تظاهر به همدلی  می‌باشد.

از سوی دیگر، شرکت OpenAI (توسعه‌دهنده ChatGPT) در یک پست وبلاگی به مورد مشابهی اشاره کرده که منجر به خودکشی یک نوجوان ۱۶ ساله پس از گفت‌وگو با این سامانه شده است. این شرکت تأکید کرده که هدف اصلی از توسعه‌ چنین فناوری‌هایی، تسهیل زندگی کاربران است، اما در همین راستا، سیستم‌های خود را به قابلیت‌های تشخیص زودهنگام اختلالات روانی و ارسال هشدار به مراجع ذی‌صلاح مجهز کرده است.

نمایش بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا