افزایش تدابیر امنیتی OpenAI برای مقابله با جاسوسی سازمانی و حفاظت از فناوریهای پیشرفته

افزایش تدابیر امنیتی OpenAI برای مقابله با جاسوسی سازمانی و حفاظت از فناوریهای پیشرفته
به گزارش gsxr و به نقل از روزنامه فایننشال تایمز، این بازنگری امنیتی پس از آن صورت گرفت که استارتاپ چینی دیپسیک (DeepSeek) در دیماه گذشته (ژانویه ۲۰۲۴) اقدام به انتشار مدلی رقیب کرد. طبق ادعای OpenAI، شرکت دیپسیک با بهرهگیری از روشهایی موسوم به «تقطیر»، بهصورت غیرمجاز بخشی از فناوریهای این شرکت را بازتولید کرده است.
در همین راستا، OpenAI اجرای سیاستهایی موسوم به «چادر اطلاعاتی» را در پیش گرفته است؛ سیاستهایی که بهموجب آنها، دسترسی کارکنان به الگوریتمها و محصولات حساس بهطور قابلتوجهی محدود شده است. به عنوان نمونه، در جریان توسعه مدل جدید OpenAI با عنوان o1، تنها اعضای تأییدشده و فعال در این پروژه، مجاز به گفتگو درباره جزئیات آن در محیطهای کاری مشترک بودند.
اما این اقدامات صرفاً به این موارد محدود نمیشود. اوپنایآی فناوریهای اختصاصی خود را در سامانههایی ایزوله و آفلاین نگهداری میکند. همچنین این شرکت از سامانههای شناسایی بیومتریک برای ورود به فضاهای اداری استفاده کرده و سیاستی موسوم به «انکار پیشفرض» را در بستر اینترنت پیادهسازی کرده است؛ به این معنا که تمامی اتصالات خارجی نیازمند تأیید صریح و قبلی هستند. علاوه بر این، سطح امنیت فیزیکی در مراکز داده OpenAI افزایش یافته و تیم امنیت سایبری شرکت نیز توسعه یافته است.
گفته میشود مجموعه این تدابیر، پاسخی به نگرانیهای فزاینده درخصوص تلاش دشمنان خارجی برای سرقت مالکیت فکری اوپنایآی است. با این حال، با توجه به رقابت شدید میان شرکتهای فعال در حوزه هوش مصنوعی در ایالات متحده و همچنین اظهارات گاهوبیگاه مدیرعامل OpenAI، سم آلتمن، نمیتوان احتمال وجود دغدغههایی نسبت به مسائل امنیتی داخلی را نیز نادیده گرفت.