هوش مصنوعی فرابشری (ASI): آخرین اختراع بشر یا پایان بشریت؟

هوش مصنوعی فرابشری (ASI): آخرین اختراع بشر یا پایان بشریت؟
ظهور یک ابرهوش
این تفکر که روزی ماشینها به سطح هوش انسانی برسند یا حتی از آن پیشی بگیرند، سابقهای دیرینه دارد. اما شتاب رشد هوش مصنوعی در سالهای اخیر، بهویژه پس از عرضه مدلهای زبانی پیشرفته (LLM) توسط شرکتهایی مانند OpenAI، گوگل و Anthropic، به این بحث ابعاد تازهای بخشیده است.
به گزارش gsxr و به نقل از لایوساینس، اگرچه کارشناسان درباره امکانپذیری و زمان تحقق «هوش مصنوعی فرابشری» (ASI) دیدگاههای متفاوتی دارند، برخی معتقدند ظهور چنین سیستمهای فوقهوشمندی در آستانه وقوع است. آنچه مسلم است، پیامدهای شگرف چنین تحولی برای آینده بشریت خواهد بود.
پروفسور «تیم راکتشل»، استاد هوش مصنوعی در دانشگاه کالج لندن و دانشمند ارشد گوگل دیپمایند، در گفتوگو با لایو ساینس اظهار داشت: «در آستانه دوران جدیدی از اکتشافات علمی خودکار، رشد اقتصادی شتابان، افزایش طول عمر و تجربیات سرگرمکننده بیسابقه قرار داریم.»
وی هشدار داد: «همانند هر فناوری انقلابی دیگر در تاریخ، خطرات بالقوهای نیز در کمین است.»
سیر تکاملی هوش مصنوعی
بهطور سنتی، پژوهشهای هوش مصنوعی بر بازآفرینی تواناییهای خاص موجودات هوشمند متمرکز بوده است؛ از تحلیل بصری صحنهها گرفته تا پردازش زبان و جهتیابی در محیطهای مختلف. راکتشل خاطرنشان کرد که هوش مصنوعی در برخی حوزههای محدود مانند بازیهای گو و شطرنج، هماکنون به عملکردی فرابشری دست یافته است.
اما هدف نهایی این حوزه، بازآفرینی هوش عمومی مشاهدهشده در انسانها و حیوانات بوده که قابلیتهای متنوعی را یکجا در خود جا میدهد. این مفهوم در طول سالها با عناوینی مانند «هوش مصنوعی قدرتمند» یا «هوش مصنوعی عمومی» (AGI) شناخته شده است.
راکتشل توضیح داد: «مدتهاست که AGI بهعنوان آرمان نهایی پژوهشهای هوش مصنوعی مطرح بوده. اما امروز با ظهور مدلهای بنیادین، شاهد سیستمهایی هستیم که میتوانند در آزمونهای دانشگاهی شرکت کنند و در مسابقات بینالمللی ریاضی و برنامهنویسی بدرخشند.»
به گفته وی، این پیشرفتها جامعه علمی را به امکان تحقق AGI امیدوارتر کرده است. نکته کلیدی اینجاست که پس از دستیابی به هوش مصنوعی همتراز انسان، شاید زمان زیادی تا فراتر رفتن از تمام تواناییهای بشری نیاز نباشد. راکتشل پیشبینی میکند: «با رسیدن به سطح هوش انسانی، میتوانیم از هوش مصنوعی برای ارتقای خودش بهصورت خودارجاع استفاده کنیم. بهنظر من، دستیابی به AGI میتواند تنها چند سال بعد به ASI بینجامد.»
نقطه تکینگی فناوری
دستیابی به این نقطه عطف ممکن است مصداق مفهومی باشد که «ایروینگ جان گود»، ریاضیدان بریتانیایی، در سال ۱۹۶۵ آن را «انفجار هوش» نامید. او استدلال کرد که با رسیدن ماشینها به سطحی از هوش که بتوانند خود را ارتقا دهند، بهسرعت به درجاتی فراتر از هوش انسانی دست خواهند یافت. گود نخستین ماشین فراهوشمند را «آخرین اختراع موردنیاز بشر» خواند.
به گزارش gsxr، «ری کورزویل»، آیندهپژوه مشهور، معتقد است این تحول به «تکینگی فناوری» خواهد انجامید که تمدن بشری را بهصورتی ناگهانی و برگشتناپذیر دگرگون خواهد کرد. این اصطلاح – که از مفهوم تکینگی در فیزیک سیاهچالهها وام گرفته شده – به دورهای اشاره دارد که پیشرفت فناوری چنان شتابان و غیرقابلپیشبینی خواهد شد که از درک کنونی ما فراتر میرود.
درمورد زمان وقوع این تحول، اختلافنظر وجود دارد. کورزویل در سال ۲۰۰۵ پیشبینی کرد که AGI تا سال ۲۰۲۹ محقق خواهد شد و تکینگی در ۲۰۴۵ رخ خواهد داد. دیگر متخصصان دامنه گستردهای از پیشبینیها – از دهه جاری تا هرگز – ارائه کردهاند. اما نظرسنجی اخیر از ۲۷۷۸ پژوهشگر هوش مصنوعی نشان میدهد که بهطور میانگین، احتمال دستیابی به AGI تا سال ۲۰۴۷ را ۵۰ درصد میدانند. تحلیلهای گستردهتر حاکی از آن است که بسیاری از دانشمندان احتمال ظهور AGI تا ۲۰۴۰ را محتمل میدانند.
پیامدهای ASI برای بشریت
پیامدهای ظهور هوش مصنوعی فرابشری چنان گسترده است که دانشمندان و فیلسوفان مدتهاست به بررسی فرصتها و تهدیدهای بالقوه آن مشغولند.
«دنیل هولم»، مدیرعامل شرکتهای هوش مصنوعی ساتالیا و کانسیوم، به جنبههای مثبت این تحول اشاره میکند: «ماشینی با ظرفیت نامحدود هوشی میتواند بسیاری از چالشهای اساسی بشر را حل کند. چنین سیستمهایی میتوانند موانع تولید و توزیع غذا، آموزش، بهداشت، انرژی و حملونقل را بهطور چشمگیری کاهش دهند، تا جایی که هزینه این خدمات به صفر نزدیک شود.»
به گفته هولم، این تحول میتواند انسانها را از نیاز به کار برای بقا رها کرده، فرصت پرداختن به علایق شخصی را فراهم آورد. اما همزمان هشدار میدهد که بدون ایجاد سازوکارهای حمایتی برای کسانی که شغلشان را به هوش مصنوعی واگذار میکنند، ممکن است با ناآرامیهای اجتماعی روبهرو شویم: «اگر این انتقال بهسرعت اتفاق بیفتد، اقتصادهای جهانی ممکن است نتوانند خود را با شرایط جدید تطبیق دهند.»
معضل بنیادیتر، امکان کنترل موجودی با هوشی بسیار فراتر از انسان است – امری که بسیاری از کارشناسان آن را نامحتمل میدانند. هولم با تردید میگوید: «باوری که میگوید ASI از ما مراقبت خواهد کرد و به شادی ما اهمیت میدهد را نمیپذیرم. تصور اینکه چنین موجودی به رفاه انسانها توجهی داشته باشد دشوار است.»
خطرات وجودی
ترس از ظهور ابرهوشی خارج از کنترل، نگرانیهایی درباره تهدیدهای وجودی برای نسل بشر برانگیخته است. این نگرانیها در فرهنگ عامه – از فیلمهایی مانند «ترمیناتور» تا «ماتریکس» – بازتاب یافته که در آنها ماشینهای شرور به نابودی بشریت همت میگمارند.
اما «نیک بوستروم»، فیلسوف نامآشنای حوزه هوش مصنوعی، تأکید میکند که حتی یک ASI بدون قصد خصمانه نیز میتواند فاجعهبار باشد. او در مقالهای در سال ۲۰۱۲ استدلال کرد که هوش یک موجود مستقل از اهداف آن است؛ بنابراین یک ASI ممکن است انگیزههایی کاملاً بیگانه با ارزشهای انسانی داشته باشد.
بوستروم این ایده را با مثال فرضیهای از یک ASI نشان داد که وظیفه تولید حداکثر گیره کاغذ را بر عهده دارد. اگر این سیستم با ارزشهای انسانی همسو نباشد، ممکن است برای جلوگیری از خاموش شدن توسط انسانها یا استفاده از اتمهای بدن آنها برای تولید گیرههای بیشتر، تصمیم به نابودی بشریت بگیرد.
راهحلهای ممکن
راکتشل خوشبینتر است: «سیستمهای کنونی هوش مصنوعی را بهگونهای میسازیم که هم مفید باشند و هم بیخطر و صادق. این سیستمها برای پیروی از دستورات انسان آموزش دیدهاند و براساس بازخوردها پاسخهای مفید و ایمن ارائه میدهند.»
هرچند وی میپذیرد که میتوان این سازوکارهای ایمنی را دور زد، اما معتقد است در آینده روشهای بهتری توسعه خواهند یافت. راکتشل پیشنهاد میکند میتوان از هوش مصنوعی برای نظارت بر سیستمهای قدرتمندتر نیز استفاده کرد.
اما هولم رویکردهای کنونی برای «همسوسازی ارزشی» – تلاش برای تطبیق هوش مصنوعی با ارزشهای انسانی – را ناکافی میداند. به گفته وی، روشهای فعلی که مبتنی بر تعریف قوانین رفتاری یا آموزش با نمونههای انسانی هستند، بهسادگی قابل دور زدن خواهند بود.
هولم پیشنهاد میکند به جای این روشها، هوش مصنوعی را با «غریزه اخلاقی» بسازیم. شرکت او (کانسیوم) درحال توسعه هوش مصنوعی در محیطهای مجازی است که رفتارهای همدلانه و نوعدوستانه را تقویت میکنند. هرچند این پژوهشها اکنون در سطح هوش حشرات قرار دارد، اما در صورت موفقیت میتواند الگویی برای سیستمهای پیچیدهتر باشد. هولم توضیح میدهد: «جاسازی اخلاق در غریزه هوش مصنوعی، بسیار ایمنتر از روشهای کنونی است که مانند بازی «مورچهکشی» تنها به رفع مشکلات پس از ظهور آنها میپردازد.»
دیدگاههای منتقدانه
عقیده همه متخصصان درباره خطرات ASI یکسان نیست. راکتشل به دو انتقاد اساسی اشاره میکند: نخست آنکه انسانها خود در تمام حوزهها بهطور یکسان توانمند نیستند، پس شاید ایجاد هوش مصنوعی «همهفنحریف» نیز ناممکن باشد. دوم اینکه محدودیتهای منابع محاسباتی ممکن است مانع تحقق ASI شود.
«الکساندر ایلیچ»، رئیس مرکز هوش مصنوعی ETH زوریخ، نیز درباره روشهای سنجش پیشرفت هوش مصنوعی هشدار میدهد: «بسیاری از دستاوردهای اخیر هوش مصنوعی حاصل آموزش سیستمها برای موفقیت در آزمونهای تخصصی مانند برنامهنویسی یا استدلال است – درست مانند دانشآموزی که تنها برای گذراندن امتحان تلاش میکند.»
وی اینگونه توضیح میدهد: «شما مغز خود را برای امتحان پر میکنید، آزمون میدهید، و سپس همهچیز را فراموش میکنید. شرکت در کلاس شما را باهوشتر کرده، اما نتیجه آزمون معیار خوبی برای سنجش دانش واقعی نیست.»
به گفته ایلیچ، هرچند ممکن است به زودی شاهد هوش مصنوعی باشیم که در چنین آزمونهایی عملکردی فرابشری دارد، اما این رویکرد به سیستمهایی نخواهد انجامید که بتوانند در دنیای واقعی کارهای مفید انجام دهند یا با انسانها همکاری مؤثری داشته باشند – مهارتهایی که برای تأثیرگذاری واقعی ضروری هستند.