آیا هوش مصنوعی ما را نابود خواهد کرد؟!
آیا هوش مصنوعی ما را نابود خواهد کرد؟!
زمانی در آینده هوش مصنوعیای خواهیم داشت که باهوشتر، سریعتر و قدرتمندتر از ما خواهد بود، و آن زمان است که دیگر ما انسانها در صدر قدرت نخواهیم بود. اما چه اتفاقی برای بشریت میافتد؟ و چطور میتوانیم خود را برای چنین روزی آماده کنیم؟ در ادامه با دیجی رو همراه باشید تا به بررسی این سوالها بپردازیم.
«لوک ملهاسر» مدیر اجرایی «انستیتو تحقیق در زمینهی هوش مصنوعی (MIRI)» است، گروهی که در حال تحقیق روی راههایی هستند تا بتوان هوش مصنوعیای هوشمندتر از انسان و در عین حال دوست دار انسان تولید کرد. اخیراً «ملهاسر» به صورت مشترک همراه با «نیک بوستروم» از «انستیتو آیندهی بشر (FHI)» مقالهای با نام «در مورد نیاز به توسعهی هوش مصنوعی دوستانه» منتشر کردهاند.
سوال: اولین برخودرتان با مسئلهی دوستانه بودن یک ابرهوش چه زمانی اتفاق افتاد؟
در اواسط سال 2010 بود که در هنگام خواندن مقالهای از سال 1965 از «ایروینگ جان گود»، همکار «آلن تورینگ» در جنگ جهانی دوم که با یکدیگر به کشف کردن کدهای آلمانها میپرداختند، به پاراگراف زیر رسیدم:
بگذارید فرض کنیم که ماشینی ابر هوشمند به این صورت تعریف میشود که ماشینی است که میتواند از فعالیتهای هوشمندانهی هر انسانی پیشی بگیرد. از آنجایی که طراحی خود این ماشین یکی از این فعالیتهای ذهنی هوشمندانه است این ماشین قادر خواهد بود ماشینی حتی بهتر از خود طراحی کند. در چنین شرایطی «انفجاری از هوش» رخ خواهد داد و هوش انسان بسیار ضعیفتر از ماشین ابر هوشمند ساخته شده خواهد بود. به این ترتیب اولین ماشین ابر هوشمندی که توسط انسان ساخته میشود آخرین ماشینی است که انسان نیاز به ساخت آن خواهد داشت.
من تا آن زمان داستانهای علمی تخیلی نمیخواندم و با مفهوم «ترابشریت» نیز به خوبی آشنا نبودم، اما به سرعت فهمیدم که نتیجهگیری آقای گود دقیقاً حاصل از همان چیزهایی است که من به آنها باور دارم، برای مثال این که هوش حاصل الگوریتمهای شناختی است و فرآیندی جادویی نیست. به سرعت متوجه این شدم که انفجاری از هوش میتواند اتفاقی مهم در تاریخ بشریت باشد و مهمترین کاری که میتوانم بکنم این است که چنین انفجاری به جای تاثیری منفی، تاثیری مثبت روی انسانها داشته باشد، به این صورت که به جای یک ابر هوش غیر دوستانه یا بی تفاوت با ابر هوشی دوستانه سر و کار داشته باشیم.
در ابتدا فکر کردم که چنین چالش بزرگی برای قرن بیست و یکم صدها میلیون دلار منابع مالی برای تحقیقات خواهد داشت و من در این زمینه کمک کمی به حساب خواهم آمد. اما در چند ماه بعد فهمیدم که کمتر از 5 نفر در سراسر جهان هستند که تمام وقت خود را صرف کار در این زمینه میکنند و حتی همین فعالیتها نیز بدون منابع مالی انجام میشود. به این ترتیب بود که در آپریل 2011 شغل خود به عنوان مدیر شبکه را کنار گذاشتم و شروع به کارآموزی در MIRI کردم، تا بفهمم که چگونه میتوانم در حل این مسئله کمک کنم و فهمیدم که بهترین کاری که برای کمک میتوانم انجام دهم قبول کردن مسئولیتهای اجرایی MIRI است و این طور بود که از نوامبر 2011 به عنوان مدیر عامل اجرایی MIRI انتخاب شدم.
سوال: آخرین فیلم «اسپایک جانز» به اسم Her باعث بحثهایی در مورد هوش مصنوعی شده است. در مورد تصویر هوش مصنوعی در این فیلم و مقایسهی آن با ابر هوش مصنوعی چه چیزهایی میتوانید به ما بگویید؟
فیلم Her فیلم بسیار خوبی است و تصویری که از هوش مصنوعی نشان میدهد تصویر خوبی است اما لزوماً تصویری واقع گرایانه نیست. کارگردان این فیلم اسپایک جانز هنگام نوشتن فیلمنامه با دانشمندان علوم کامپیوتر مشورت نکرده است که چنین حقیقتی نیز برای دانشمندانی که این فیلم را مشاهده کردهاند واضح است.
بدون این که بخواهم فیلم را لو بدهم میتوانم بگویم که هوش مصنوعی فیلم Her، اگر واقعاً در جهان واقعی وجود داشته باشد، میتواند به راحتی اقتصاد جهانی را دگرگون کند. اما در این فیلم وجود یک هوش مصنوعی هوشمندتر از انسان که قابلیت بهبود خود را دارد به هیچ وجه روی جهان فیلم تاثیر نمیگذارد. همانطور که اقتصاددان «رابین هنسون» در فیسبوک خود نوشته:
«فیلمی مانند تایتانیک را تصور کنید که کوه یخی به کشتی برخورد میکند و شکافی عظیم در بدنهی کشتی به وجود میآورد، با این تفاوت که چنین شکافی فقط روی شخصیتهای فیلم این تاثیر را میگذارد که باعث میشود راه دیگری را برای گشت زنی در کشتی انتخاب کنند و هوای آزاد بیشتری را نیز وارد کشتی میکند. کشتی هیچ وقت غرق نمیشود و هیچ کس نمیترسد که ممکن است چنین اتفاقی بیفتد. این همان احساسی است که هنگام تماشای فیلم Her داشتم.»
سوال: تئوریسینهای هوش مصنوعی همچون شما هشدار میدهند که روزی میرسد که ما کنترل ماشینهایی که ساختهایم را از دست میدهیم و چنین اتفاق ناگهانی و با سرعت رشد زیادی به دو دلیل اتفاق میافتد، یکی از آنها تهدید پردازشی و دیگری قابلیت بهبود متوالی در سیستمها است. میتوانید هر کدام از اینها را برای ما توضیح دهید؟
خیلی سخت است که رفتارهای عاملی هدفدار که باهوشتر از خود ما است را کنترل کنیم. چنین مسئلهای به مراتب سختتر از کنترل یک انسان دیگر در چنین شرایطی است.
اگر با فرآیندهای کنترلی مختلف آزمون و خطا کنیم و اشتباهات زیادی انجام دهیم و از اشتباهاتمان درس بگیریم، شاید بتوانیم بعد از 50 سال نحوهی کنترل یک هوش مصنوعی خود بهبود دهنده را فرا بگیریم. متاسفانه به نظر میرسد که چنین فرصتی برای اشتباهات زیاد نداشته باشیم چون سرعت رشد چنین هوشی و سرعت در کنترل گرفتن اختیارات مختلف توسط آن ممکن است بسیار زیاد باشد. دو دلیل چنین اتفاقی میتوانند تهدید پردازشی و خود بهبودی متوالی باشد.
در مقالهمان من و همکارم تهدید پردازشی را به این صورت تعریف میکنیم:
فرض کنیم که توان پردازشی طبق قانون مور دو برابر میشود اما پیدا کردن الگوریتمی برای هوش مصنوعی عمومی در سطح هوش انسان بسیار سخت باشد. وقتی که بالاخره نرمافزاری برای هوش مصنوعی عمومی در سطح هوش انسان تولید شود یک تهدید پردازشی خواهیم داشت: منابع عظیمی از توان پردازشی کم هزینه در اختیار چنین هوش مصنوعیای وجود خواهد داشت، هوش مصنوعی میتواند در چنین بستر سختافزاری کپی شود و جمعیتش به سرعت از جمعیت انسانها پیشی بگیرد.
دلیلی دیگر برای از دست رفتن کنترل از دست انسانها و افتادن چنین کنترلی به دست هوش مصنوعی توانایی هوش مصنوعی در بهبود خود به صورت متوالی است. یک هوش مصنوعی با توان هوشمندی عمومی در سطح انسان قدرت این را دارد که به سرعت بفهمد که اگر تحقیقاتی در زمینهي هوشش انجام دهد و تواناییهای هوشی خود را بهبود ببخشد میتواند بهتر به اهدافش برسد. بهبود خود، ارزشی همگرا برای هر ارزش نهایی دیگری است که هر عاملی میتواند داشته باشد و به همین دلیل است که انسانهای زیادی هستند که دنبال کتابهایی برای بهبود شرایط خود میروند. به این ترتیب همانطور که در مقالهمان اشاره کردهایم:
«اگر هوش مصنوعیای بسازیم که به اندازهی خود ما در طراحی هوش مصنوعی مهارت داشته باشد، به این ترتیب سیکلی از خود بهبودی توسط هوش مصنوعی را شروع کردهایم. وقتی که چنین هوش مصنوعی خودش را بهبود دهد، هوشی که چنین بهبودی را انجام میدهد را نیز بهبود داده است و رخ دادن چنین اتفاقی به صورت متوالی به هوشی منتهی میشود که به سرعت از توانایی هوشی انسان پیشی گرفته است.»
سوال: بعضیها بر این باورند که هیچ چیزی برای ترس نسبت به هوش مصنوعی وجود ندارد. و اگر عاملی داشته باشیم که بسیار هوشمندتر از انسان باشد نمیتواند احمق یا ظالم باشد و بخواهد که ما را نابود کند. به چنین افرادی که فکر میکنند هوش مصنوعی بهتر از خود ما انسانها رفتار خواهد کرد چه چیزی دارید که بگویید؟
در هوش مصنوعی تواناییهای سیستم مستقل از اهداف آن است. به این ترتیب است که میتوانید سیستمی بسیار هوشمند بسازید که هدف آن افزایش قیمت سهام شرکتی خاص، فیلتر کردن اسپمها یا افزایش تولید یک کارخانه است. وقتی که چنین سیستمی را بهبود میدهید یا اگر خودش خود را بهبود دهد لزوماً اهداف چنین سیستمی تغییر نمیکنند بلکه سیستم در دستیابی به اهدافش بهتر عمل خواهد کرد.
اخطارها و استثناهایی برای چنین قانون کلیای وجود دارد اما نکته این است که نباید سرنوشت جهان خود را روی این شرط بندی پر ریسک بگذاریم که هر هوش مصنوعی که ساخته میشود در نهایت ارزشهای اخلاقی بهتری نسبت به ما خواهد داشت. در عوض میتوانیم تلاش کنیم تا برای افرادی باهوش منابع مالی تهیه کنیم تا بتوانند روی این مسئله فکر کنند که برای یک ابر هوش مصنوعی چه راهکارهای کنترلی میتوانیم پیدا کنیم.
سوال: چرا نمیتوانیم هوشهای مصنوعی خطرناک را ایزوله کرده و از دسترسیشان به اینترنت جلوگیری کنیم؟
چنین سیستمهایی برای ایزوله کردن هوش مصنوعی در مراحل توسعهی هوش مصنوعی دوستانه ضروری خواهند بود اما راه حلی کلی برای مشکل ما نیستند و این نیز دو دلیل دارد:
اول از همه این که حتی اگر اولین کسی که چنین پروژهای را انجام میدهد آن قدر باهوش باشد که چینن کاری را بکند ممکن است چند نفر دیگری که در حال انجام پروژههای مشابه بعدی هستند این کار را نکنند. ممکن است وسوسهای شدید برای خارج کردن هوش مصنوعی از محیط ایزوله وجود داشته باشد مخصوصاً اگر بر این باور باشید که میتواند به شما کمک کند تا در بورس به سهامی میلیاردی دست پیدا کنید. به هر هدفی که هوش مصنوعی خود را ساختهاید بهتر است این قابلیت را داشته باشید که آن را از محیط ایزولهاش خارج کنید چون اگر چنین قابلیتی نداشته باشید ممکن است تیم دیگری هوش مصنوعی خطرناکتری بسازد و آن را از محیط ایزولهاش خارج کند.
دلیل دوم این است که ایزوله کردن هوش مصنوعی هوش انسانی را در مقابل هوش ابر انسانی قرار میدهد و در چنین شرایطی نمیتوانیم انتظار داشته باشیم که طرف برندهی این رقابت باشیم. انسانها میتوانند وسوسه شوند و راههای فرار از محیطهای ایزوله زیاد است.
با این حال ایزوله کردن هوش مصنوعی میتواند به عنوان راه حل خوبی برای شرایط خاصی در نظر گرفته شود و ارزش تحقیق را دارد.
سوال: اگر بخواهیم سیستمهای هوشمندی بسازیم که ارزشهای اخلاقی مشابهی همانند ما انسانها داشته باشند چه ریسکهایی در پیش رو داریم؟
امیدواریم بتوانیم بهتر از این عمل کنیم که هوش مصنوعیای بسازیم که بعضی از ارزشهای انسانی را دنبال کند. فکر کردن به این ترسناک است که چه میشد اگر یونانیان باستان قادر به ساخت ابر هوش مصنوعیای میشدند که ارزشهای اخلاقی آنها را دنبال میکرد. همین ترس نیز وجود دارد وقتی به این فکر میکنم که هوش مصنوعیای بسازیم که ارزشهای فعلی انسانی را دنبال کند.
بیشتر بخوانید:
از کجا بدانیم که رباتهایی انساننما نیستیم؟
پس چیزی که به دنبال آن هستیم این نیست که هوش مصنوعی بسازیم که ارزشهای فعلی انسانی به طور مستقیم در آن وجود داشته باشد بلکه چنین سیستمی باید الگوریتمی داشته باشد که به صورت غیر مستقیم به شرایطی هنجارمند برسد. به جای اینکه لیستی از ارزشهای انسانی را به چنین سیستمی بدهیم باید به عنوان اولین وظیفه برای سیستم مشخص کنیم که به دنبال ارزشهای مخصوص خود بگردد و سپس دنیا را با این ارزشها مورد بررسی قرار دهد. چند راهکار انتزاعی برای چنین کاری وجود دارد اما در مراحل بسیار ابتدایی هستند و نیاز به توسعهی بسیار بیشتری دارند.
سوال: در کنار «انستیتو آیندهی بشر» در آکسفورد، MIRI در حال تلاشی فعالانه برای حل مشکل غیردوستانه بودن هوش مصنوعی است و حتی قبل از اینکه چیزی در مورد نحوهی طراحی هوشهای مصنوعی آینده بدانیم چنین تلاشی را از این موسسات میبینیم. استراتژی فعلی شما چیست؟
بله، تا آنجایی که من میدانم فقط همین دو موسسه هستند که به صورت تمام وقت در حال تامین منابع مالی تحقیق روی این مسئله هستند. گروه جدیدی نیز در دانشگاه کمبریج به اسم CSER وجود دارد که به محض تامین منابع مالی تحقیقات خود را این زمینه گسترش میدهند و البته افراد بسیار معتبری را به عنوان مشاوران خود پیدا کردهاند افرادی همچون استیون هاوکینگ و جرج چرچ.
تا اینجا تلاش انستیتو آیندهي بشر بر این بوده است که نقشهای از مشکل فعلی و وضعیت ما نسبت به آن فراهم کند و با استفاده از کنفرانسهایی همچون AGI Impacts در سال 2012 محققان بیشتری را درگیر این مسئله کند.
موسسه MIRI نیز در همکاری نزدیکی با FHI روی چنین تحلیلهای استراتژیکی کار میکند، اما اخیراً تصمیم گرفتهایم که روی ریاضیات هوش مصنوعی دوستانه کار کنیم و این کار را نیز با کارگاههای تحقیق در مورد ریاضیات و حل ریزمسئلههای هوش مصنوعی دوستانه انجام دهیم.
سوال: چه تفکراتی در این مورد وجود دارد که بتوانیم هوش مصنوعی دوستانهای بسازیم که هم دوستدار انسانها باشد و هم توانایی تغییر ارزشهای درونی خود را نداشته باشد؟
به نظر میرسد که راه حل مشکل «تغییر ارزشها» راه حلی در مورد هنجارپذیری غیر مستقیم است. اما حتی چنین راه حلی نیز در چنین مرحلهی اولیهای بسیار سخت است.
و در مورد مطمئن شدن برای حفظ اهداف مورد نظر ما هنگام خود بهبودی هوش مصنوعی در حال کار کردن روی مدلهای اولیهای هستیم. اما چنین مدلهای اولیهای از هوش مصنوعی واقعی بسیار فاصله دارند.
سوال: چقدر خوشبین هستید که بتوانیم جوابی برای این مسئله پیدا کنیم و هوش مصنوعی دوستانهای که هدفش نابود کردن انسانها نباشد چه فوایدی برای ما میتواند داشته باشد؟
فواید چنین هوش مصنوعی دوستانهای میتواند نجومی باشد. خیلی سخت است که بگوییم هوشی توانمندتر از من اگر با ارزشهایی پیشرفتهتر از من راهنمایی شود چطور میتواند جهان را بهبود دهد اما فکر میکنم یکی از تصاویری که میتواند ایدهای در مورد چنین جهانی در اختیار ما قرار دهد سفینهای با قابلیت بازسازی خود است، سفینهای که تمدنهایی شاد، ایمن و در حال پیشرفت را در جای جای جهان شروع بنا میگذارد.
متخصصان ابر هوش مصنوعی، کسانی که به طور تمام وقت روی پیدا کردن جواب سوالاتی در این زمینه کار میکنند، نظرات متفاوتی در مورد توانایی انسان برای حل این مسئله دارند.
اگر از خود من بپرسید باید بگویم که بسیار بدبین هستم. مشکل کنترل ابر هوش مصنوعی بسیار سختتر از مشکلات فعلی جهان همچون گرم شدن کرهی زمین یا زیست شناسی مصنوعی است و فکر نمیکنم که سرعت بهبود توانایی و عقلانیت تمدن فعلی ما به اندازهای باشد که بتوانیم قبل از دست یافتن به اولین ابر هوش مصنوعی به جواب سوالهایمان رسیده باشیم. اما خود این فرضیه نیز نیاز به مطالعهی بیشتری دارد. در تحقیقاتمان نیز در حال پرداختن به همین سوال «شایستگی تمدنها» در این مورد هستیم.