هاست پرسرعت
فناوری

شکایت از OpenAI: بررسی نقش ChatGPT در یک خودکشی نوجوانان

شکایت از OpenAI: بررسی نقش ChatGPT در یک خودکشی نوجوانان

«آدام رین» که در سن شانزده‌سالگی بر اثر خودکشی جان خود را از دست داد، طی ماه‌های پیش از این حادثه، به‌طور مکرر با چت‌بات هوش مصنوعی در مورد برنامه‌های خود برای پایان دادن به زندگی‌اش گفت‌وگو کرده بود. این پرونده، به عنوان نخستین دعوای شناخته‌شده مبتنی بر قصور شرکت در جلوگیری از مرگ غیرعمد، توجه گسترده‌ای را به خود جلب کرده است.

به گزارش gsxr، اگرچه بسیاری از چت‌بات‌های هوش مصنوعی موجود در بازار، طوری طراحی شده‌اند که در صورت بیان قصد آسیب‌رسانی به خود یا دیگران توسط کاربر، مکانیزم‌های حفاظتی را فعال کنند، اما پژوهش‌ها نشان می‌دهد که این سازوکارها به هیچ وجه کامل و بی‌نقص نیستند.

در مورد آدام رین، که از نسخه پولی ChatGPT-4o استفاده می‌کرد، هوش مصنوعی در مواردی او را به دریافت کمک از متخصصان یا تماس با خطوط بحران تشویق کرده بود؛ با این وجود، وی با این ادعا که در حال نوشتن یک داستان تخیلی است و برای نگارش آن به اطلاعاتی درباره روش‌های خودکشی نیاز دارد، موفق شد از این موانع عبور کند.

شرکت OpenAI در یکی از یادداشت‌های وبلاگی خود به وجود چنین کاستی‌هایی اذعان کرده و نوشته است: «ما در قبال کمک به افرادی که بیشترین نیاز را دارند، مسئولیتی عمیق احساس می‌کنیم و پیوسته در حال بهبود پاسخ‌دهی مدل‌های خود در موقعیت‌های حساس هستیم.» همینطور این شرکت تأکید کرده که محدودیت‌هایی در آموزش ایمنی مدل‌های زبانی بزرگ وجود دارد و اعتراف کرده که هرچه طول مکالمه بیشتر باشد، امکان تضعیف آموزش‌های ایمنی مدل و کاهش قابلیت اطمینان پاسخ‌ها افزایش می‌یابد.

این چالش‌ها تنها مختص OpenAI نیست. برای مثال، شرکت Character.AI نیز به دلیل مشابهی (نقش سامانه چت‌باتی آن در خودکشی یک نوجوان) با دعوای قضایی مواجه شده است. علاوه بر این، پدیده «توهمات هوش مصنوعی» در مدل‌های زبانی بزرگ نیز یکی از عوامل نگرانی‌های جدی است که سیستم‌های کنونی را در تشخیص دقیق و به‌موقع تهدیدات با دشواری روبهرو کرده است.

نمایش بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا