GeekAlerts

جایی برای گیک‌ها

تدابیر امنیتی جدید OpenAI برای جلوگیری از کپی شدن مدل‌ها

تدابیر امنیتی جدید OpenAI برای جلوگیری از کپی شدن مدل‌ها

بر اساس گزارش‌هایی که در تاریخ ۷ جولای ۲۰۲۵ منتشر شده، شرکت OpenAI برای محافظت از خودش در برابر جاسوسی صنعتی، عملیات امنیتی خودش را به شکل جدی بازنگری کرده. این اخبار که اولین بار در فایننشال تایمز و به دنبال آن در منابعی مثل تک‌کرانچ و یاهو فایننس منتشر شد، به مجموعه‌ای از اقدامات جدید این شرکت اشاره می‌کند.

دلیل تشدید اقدامات امنیتی چیست؟

گفته شده که این تشدید امنیتی پس از آن سرعت گرفت که یک استارتاپ چینی به نام DeepSeek در ماه ژانویه یک مدل هوش مصنوعی رقیب را منتشر کرد. OpenAI مدعی است که DeepSeek با استفاده از تکنیک‌های «تقطیر» (distillation) مدل‌های آن‌ها را به شکل نادرستی کپی کرده است. این اتفاق ظاهرا OpenAI را به فکر اجرای یک طرح امنیتی محکم‌تر انداخته است.

چه تغییراتی در OpenAI در حال رخ دادن است؟

بر اساس گزارش‌ها، این شرکت مجموعه‌ای از سیاست‌های جدید را برای حفاظت از اطلاعات حساس خود پیاده کرده است. این موارد شامل بخش‌های مختلفی می‌شود:

  • سیاست «چادر اطلاعاتی» (information tenting): این سیاست دسترسی کارمندان به الگوریتم‌های حساس و محصولات جدید را محدود می‌کند. برای مثال، در طول توسعه مدل o1، فقط اعضای تایید شده تیم که به صورت رسمی در جریان پروژه قرار گرفته بودند، اجازه داشتند در فضاهای کاری مشترک در مورد آن صحبت کنند.
  • ایزوله کردن فناوری: تکنولوژی‌های اختصاصی شرکت حالا روی کامپیوترهای آفلاین و جدا از شبکه نگهداری می‌شوند.
  • کنترل دسترسی بیومتریک: برای ورود به بخش‌های مختلف دفتر، از سیستم‌های کنترل دسترسی بیومتریک مثل اسکنر اثر انگشت کارمندان استفاده می‌شود.
  • سیاست اینترنت «ممنوع به طور پیش‌فرض» (deny-by-default): هرگونه اتصال به منابع خارجی اینترنتی نیازمند تایید صریح است و در حالت عادی، همه دسترسی‌ها بسته است.
  • افزایش امنیت فیزیکی و سایبری: امنیت فیزیکی در مراکز داده (دیتا سنترها) افزایش یافته و تعداد پرسنل امنیت سایبری شرکت نیز بیشتر شده است.

این تغییرات از یک طرف نگرانی‌های گسترده‌تری را در مورد تلاش رقبای خارجی برای سرقت مالکیت معنوی OpenAI نشان می‌دهد. از طرف دیگر، با توجه به جنگ استعدادیابی و جذب نیرو بین شرکت‌های هوش مصنوعی آمریکایی و همچنین درز گاه و بی‌گاه صحبت‌های مدیرعامل شرکت، سم آلتمن، ممکن است OpenAI به دنبال حل مشکلات امنیتی داخلی خودش هم باشد. منابع خبری اشاره کرده‌اند که برای دریافت نظر رسمی با OpenAI تماس گرفته‌اند.

منابع

دیدگاه‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *