چرا نباید اطلاعات محرمانه خود را در ChatGPT وارد کنیم؟
چرا نباید اطلاعات محرمانه خود را در ChatGPT وارد کنیم؟
ChatGPT این روزها بسیار خبرساز شده و در کنار عملکردهای فوق العادهای که دارد، برخی نگرانیها را نیز به وجود آورده است. به عنوان مثال، این چت هوش مصنوعی به یک مشکل امنیتی و ناقض حفظ حریم خصوصی تبدیل شده، زیرا بسیاری از کاربران اطلاعات خصوصی خود را در آن به اشتراک میگذاریم. باید بدانید که ChatGPT هر مکالمهای را که با آن انجام میدهید، از جمله اطلاعات شخصیای که به اشتراک میگذارید، ثبت و ذخیره میکند. با این حال، بسیاری از کاربران این موضوع را نمیدانند چون که هیچ توجهی به قوانین و سیاستهای حفظ حریم خصوصی و صفحه پرسشهای متداول OpenAI ندارند و طبق طبق معمول با زدن دکمه تأیید از آن رد میشوند.
افشای اطلاعات خصوصی برای همه افراد ناخوشایند است، اما این مسئله برای شرکتهای بزرگ که از ChatGPT برای پردازش اطلاعات روزمره خود استفاده میکنند، پررنگتر بوده و میتواند شروع یک فاجعه بزرگ باشد.
افشای اطلاعات محرمانه سامسونگ از طریق ChatGPT
طبق گزارش Gizmodo، کارمندان سامسونگ به اشتباه اطلاعات محرمانه خود را از طریق ChatGPT در سه نوبت جداگانه در مدت 20 روز فاش کردند! این فقط گوشهای از این واقعیت است که شرکتها چقدر آسان در معرض خطر قرار دارند و به واسطه استفاده نامناسب از هوش مصنوعی، اطلاعات خصوصی آنها به بیرون درز میکند.
ChatGPT به دلیل مسائل مربوط به حفظ حریم خصوصی در نزد افکار عمومی مورد انتقاد قرار گرفته، بنابراین سامسونگ سهلانگاری بزرگی کرده که اجازه داده است این اتفاق بیفتد. حتی برخی از کشورها ChatGPT را برای محافظت از شهروندان خود تا زمانی که قوانین حریم خصوصی آن بهبود یابند، ممنوع کردهاند. پس کاملاً منطقی است که شرکتها در مورد نحوه استفاده کارکنانشان از این فناوری نو ظهور دقت بیشتری داشته باشند.
خوشبختانه، به نظر میرسد که مشتریان سامسونگ حداقل در حال حاضر در امنیت هستند و دادههای فاش شده تنها مربوط به سیاستهای تجاری داخلی، برخی کدهای اختصاصی، و صورتجلسههای یک جلسه تیمی هستند که همه توسط کارمندان این شرکت با ChatGPT به اشتراک گذاشته شدهاند. اما نکته اینجاست که فاش کردن اطلاعات شخصی کاربران نیز میتواند به همین راحتی توسط کارکنان شرکتهای بزرگ انجام شود و به نظر میرسد دیر یا زود شاهد چنین اتفاقی نیز خواهیم بود. اتفاقی که اگر رخ دهد، میتوان انتظار داشت که شاهد افزایش گسترده کلاهبرداریهای فیشینگ و جعل هویت باشیم.
در این بین خطر دیگری هم وجود دارد. اگر کارمندان شرکتها برای برطرف کردن باگهای نرم افزاری محصولات خود از ChatGPT استفاده کنند (مانند همان اتفاقی که برای سامسونگ افتاد)، کدهایی که در کادر چت تایپ میکنند در سرورهای OpenAI نیز ذخیره میشود و این میتواند منجر به ایجاد نقصهای امنیتی جدید و هکهای بعدی شود که تأثیر زیادی بر شرکتها در عیبیابی محصولات و برنامههای منتشر نشده خواهد داشت. حتی ممکن است در نهایت شاهد افشای اطلاعاتی مانند طرحهای تجاری منتشر نشده، نسخههای آتی و نمونههای اولیه باشیم که میتواند ضررهای مالی زیادی را برای شرکتها به همراه داشته باشد.
بیشتر بخوانید:
- آیا هوش مصنوعی خطرناک است؟ با خطرات آنی این فناوری نوین آشنا شوید
افشای اطلاعات توسط ChatGPT چگونه اتفاق میافتد؟
خط مشی رازداری ChatGPT به وضوح نشان میدهد که این ابزار چت هوش مصنوعی مکالمات شما را ضبط میکند و گزارش آنها را با سایر شرکتها و مربیان هوش مصنوعی خود به اشتراک میگذارد. هنگامی که شخصی (به عنوان مثال، یکی از کارمندان سامسونگ) اطلاعات محرمانه را در کادر محاورهای تایپ میکند، این اطلاعات در سرورهای ChatGPT ثبت و ذخیره میشوند.
خیلی بعید است که کارمندان عمداً چنین کاری را انجام دهند و همین مسئله است که بسیار ترسناک است. معمولاً بیشتر درزهای اطلاعاتی ناشی از خطای انسانی است و اغلب نیز به این دلیل است که شرکتها نتوانستهاند کارکنان خود را در مورد خطرات حریم خصوصی هنگام استفاده از ابزارهایی مانند هوش مصنوعی به درستی آموزش دهند.
به عنوان مثال، اگر کارمندی برای ساده کردن کار خود، لیست عریض و طویل کاربران شرکت را در ChatGPT وارد کرده و از هوش مصنوعی بخواهند شماره تلفن مشتریان را از سایر دادهها جدا کند، ChatGPT تمامی نامها و شماره تلفنها را در سوابق خود ذخیره خواهد کرد. به همین سادگی، اطلاعات خصوصی شما در اختیار شرکتهایی قرار میگیرد که قرار نبود به آنها دسترسی داشته باشند و این شرکتها احتمالاً در حفظ و نگهداری اطلاعات جدیت زیادی نخواهند داشت.
نتیجه: اطلاعات محرمانه خود را با ChatGPT به اشتراک نگذارید
میتوانید با خیال راحت از ChatGPT در کارهای مختلف خود استفاده کنید، اما اطلاعات محرمانه را به هیچ وجه نباید با این ابزار به اشتراک بگذارید. باید مراقب بوده و از تایپ کردن هر چیزی که شخصی است خودداری کنید؛ از جمله نام، آدرس، ایمیل و شماره تلفن. این اشتباه در حین مکالمه به سادگی اتفاق میافتد، بنابراین باید مراقب باشید که سؤالات خود از هوش مصنوعی را به دقت بررسی کنید تا مطمئن شوید که هیچ چیز محرمانهای به طور تصادفی وارد نشده است.
افشای اطلاعات محرمانه سامسونگ به ما نشان میدهد که خطر نشت دادههای مربوط به ChatGPT چقدر واقعی است. متأسفانه، در آینده ما شاهد تعداد بیشتری از این نوع اشتباهات خواهیم بود و شاید اثرات آن بسیار بزرگتر و شدیدتر هم باشد. زیرا هوش مصنوعی روز به روز در حال گسترش بوده و به بخش اصلی در فرآیندهای کاری بیشتر مشاغل تبدیل میشود.