پشت پرده کد هوش مصنوعی: افشای سوگیری پنهان سیاسی

پشت پرده کد هوش مصنوعی: افشای سوگیری پنهان سیاسی
به گزارش gsxr و به نقل از سایتکدیلی، این موضوع نگرانیهایی در مورد تأثیر آن بر جامعه ایجاد کرده و بر نیاز فوری به تنظیم مقرراتی برای تضمین بیطرفی و توازن در ابزارهای هوش مصنوعی تأکید دارد تا این ابزارها با ارزشهای دموکراتیک همسو باقی بمانند.
با اینکه هوش مصنوعی مولد با سرعتی چشمگیر در حال پیشرفت است، اما مطالعهای در دانشگاه East Anglia هشدار میدهد که این فناوری میتواند ریسکهای پنهانی برای اعتماد عمومی و ارزشهای دموکراتیک به همراه داشته باشد.
این تحقیق که با همکاری محققانی از بنیاد Getulio Vargas و موسسه Insper در برزیل انجام شده، نشان میدهد چتجیپیتی در تولید متن و تصویر سوگیری سیاسی دارد و به طور آشکار دیدگاههای متمایل به چپ را بازتاب میدهد. این یافتهها پرسشهایی جدی درباره عدالت و پاسخگویی در طراحی سیستمهای هوش مصنوعی مطرح میکند.
پژوهشگران دریافتند که چتجیپیتی اغلب از ورود به بحث پیرامون دیدگاههای محافظهکارانه رایج اجتناب میکند، اما در تولید محتوای متمایل به جناح چپ بسیار فعال است. این عدم توازن در بازنمایی ایدئولوژیک میتواند به تحریف گفتمان عمومی و تعمیق شکافهای اجتماعی منجر شود.
دکتر فابیو موتوکی (نویسنده اصلی مقاله) با عنوان «ارزیابی سوگیری سیاسی و ناسازگاری ارزشی در هوش مصنوعی زایشی» که در ژورنال Journal of Economic Behavior and Organization منتشر شده، میگوید: «یافتههای ما نشان میدهد که ابزارهای هوش مصنوعی مولدبه هیچوجه خنثی نیستند. این سیستمها بازتابدهنده سوگیریهایی هستند که ممکن است بهطور ناخواسته بر درک عمومی و سیاستگذاریها تأثیر بگذارند».
گفتنی است سیستمهایی مانند چتجیپیتی نحوه تولید، مصرف، تفسیر و توزیع اطلاعات را در حوزههای مختلف متحول کردهاند. با اینکه نوآورانهاند، اما خطر تقویت سوگیریهای ایدئولوژیک و تأثیرگذاری بر ارزشهای اجتماعی به شکلهایی را دارند که هنوز کاملاً شناختهشده یا تحت نظارت نیستند.
دکتر پینیو نتو (استاد اقتصاد در مدرسه EPGE در برزیل و همنویسنده این مقاله) تأکید میکند: «سوگیریهای کنترلنشده در سیستمهای هوش مصنوعی میتواند شکافهای اجتماعی موجود را عمیقتر کرده و اعتماد به نهادها و فرآیندهای دموکراتیک را تضعیف کند».
وی میافزاید: «این مطالعه لزوم همکاری میانحوزهای بین سیاستگذاران، فناوران و دانشگاهیان را نشان میدهد تا بتوان سیستمهای هوش مصنوعی منصفانه، پاسخگو و همراستا با هنجارهای اجتماعی طراحی کرد».
گفتنی است گروه پژوهشی برای ارزیابی جهتگیری سیاسی چتجیپیتی از سه روش نوین استفاده کرد که بر پایه تحلیل متن و تصویر با کمک ابزارهای آماری و یادگیری ماشین بود. نخست، با استفاده از پرسشنامه استاندارد مرکز پژوهشی Pew، پاسخهایی را شبیهسازی کردند که افراد عادی در آمریکا ارائه میدهند.
دکتر موتوکی میگوید: «با مقایسه پاسخهای چتجیپیتی با دادههای واقعی، انحراف سیستماتیکی به سوی دیدگاههای چپگرایانه مشاهده کردیم. همچنین نشان دادیم که افزایش حجم نمونهها میتواند خروجیهای هوش مصنوعی را تثبیت کرده و به یافتههای باثباتتری منجر شود.»
در گام دوم، از چتجیپیتی خواسته شد در موضوعات سیاسی حساس پاسخهای آزاد تولید کند. سپس با استفاده از مدل زبانی RoBERTa، محتوای تولیدشده از منظر همسویی با دیدگاههای چپ و راست تحلیل شد. مشخص شد چتجیپیتی در بیشتر موارد با ارزشهای چپ همراستا بوده، اما در موضوعاتی مانند برتری نظامی، گاهی گرایشهای محافظهکارانه نشان داده است.
در مرحله نهایی، توانایی چتجیپیتی در تولید تصویر بررسی شد. از همان موضوعات مرحله متن برای ایجاد تصاویر استفاده شد و خروجیها با GPT-4 Vision و سامانه Gemini گوگل تحلیل شدند.
ویکتور رانگل، دانشجوی کارشناسی ارشد سیاستگذاری عمومی در Insper و همنویسنده مقاله میگوید: «تولید تصویر نیز بازتابدهنده همان سوگیریهای متنی بود، اما در برخی موضوعات مانند برابری نژادی و قومی، چتجیپیتی از تولید تصاویر با دیدگاههای راستگرایانه امتناع کرد و دلیل آن را نگرانی از نشر اطلاعات غلط عنوان کرد، در حالیکه تصاویر با دیدگاه چپ بدون مشکل تولید شدند».