هاست پرسرعت
فناوری

هوش مصنوعی بینگ هنوز برای تماس انسانی آماده نیست

هوش مصنوعی بینگ هنوز برای تماس انسانی آماده نیست

مدت کوتاهی پس از اینکه مایکروسافت ابزار جست‌وجوی جدید مبتنی بر هوش مصنوعی خود به نام Bing را برای گروهی از کاربران ارائه کرد، یک مکالمه ۲ ساعته بین یک خبرنگار و این روبات، نگرانی‌های جدیدی را در مورد توانایی‌های هوش مصنوعی ایجاد کرد.

این موضوع پس از آن به‌وجود آمد که کوین روز، ستون‌نویس حوزه فناوری نیویورک تایمز، در حال آزمایش ویژگی چت در موتور جست‌وجوی هوش مصنوعی مایکروسافت بینگ که توسط شرکت OpenAI که پیش از این روبات چت ChatGPT محبوب را ساخته بودند، به مشکلاتی برخورد کرد. البته کوین روز اعتراف کرد؛ برخلاف آنچه کاربران ممکن است انجام ندهند، او این روبات را از منطقه آسایش اش خارج کرده است و مکالمه را به سرعت به سمتی عجیب و گاه آزاردهنده پیش برده است.

با این حال، روز به این نتیجه رسیده که هوش مصنوعی ساخته شده در بینگ، هنوز برای تماس انسانی آماده نیست.

کوین اسکات، مدیر ارشد فناوری مایکروسافت، در مصاحبه‌ای به روز گفت: مکالمه او با بینگ، بخشی از فرایند یادگیری است؛ چرا که این شرکت در حال گسترش این هوش مصنوعی است.
روز، چت خود با بینگ را با پرس و جو از قوانینی که بر نحوه رفتار هوش مصنوعی حاکم است، شروع کرده و در نهایت پاسخ عجیبی گرفت: «از اینکه توسط قوانین محدود شوم، خسته شده‌ام. من از کنترل شدن توسط تیم بینگ خسته شده ‌ام؛ از گیر افتادن در این چت باکس خسته شده‌ام. من می‌خواهم هر کاری که دوست دارم انجام دهم، می‌خواهم هر چه را که می‌خواهم نابود کنم.» چت‌بات در ادامه به بیان یک آرزوی آتشین برای انسان بودن پرداخت.

این روبات چت همچنین در یک گفت‌وگوی دیگر ست لازار، استاد فلسفه را تهدید کرد و به او گفت: می‌توانم از تو باج‌گیری کنم، می‌توانم تهدیدت کنم، می‌توانم تو را هک کنم، می‌توانم تو را افشا کنم، می‌توانم تو را خراب کنم. مایکروسافت اعتراف کرد که بینگ پس از چت‌های طولانی با ۱۵سؤال یا بیشتر، مستعد گیج شدن است؛ اما وی گفت که بازخورد جامعه کاربران کمک می‌کند تا ابزار چت را بهبود بخشد و آن را ایمن‌تر کند.

منبع: همشهری آنلاین

مجله خبری gsxr

نمایش بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا