GeekAlerts

جایی برای گیک‌ها

·

قانون هوش مصنوعی اتحادیه اروپا: از دسته‌بندی ریسک تا فشار بر شرکت‌ها

قانون هوش مصنوعی اتحادیه اروپا: از دسته‌بندی ریسک تا فشار بر شرکت‌ها

قانون هوش مصنوعی اتحادیه اروپا (EU AI Act) که به طور رسمی تصویب شده، به عنوان اولین چارچوب قانونی جامع برای هوش مصنوعی در جهان شناخته میشه و پیامدهای عمیقی برای صنایع مختلف، از جمله علوم زیستی و شرکت‌های فناوری در سراسر جهان داره. این قانون فقط شرکت‌های اروپایی رو هدف قرار نمیده؛ هر شرکتی، حتی خارج از اتحادیه اروپا، که سیستم‌ها یا خروجی‌های هوش مصنوعیش در این اتحادیه استفاده بشه، باید از این قوانین پیروی کنه. این موضوع شرکت‌های بیوتکنولوژی، توسعه‌دهندگان تجهیزات پزشکی و تولیدکنندگان دارو با هرگونه ارتباطی در اروپا رو شامل میشه.

این قانون بر اساس یک رویکرد مبتنی بر ریسک طراحی شده و سیستم‌های هوش مصنوعی رو به چهار دسته تقسیم می‌کنه. عدم رعایت این مقررات میتونه جریمه‌های سنگینی تا سقف ۳۵ میلیون یورو یا ۷ درصد از گردش مالی جهانی شرکت رو به همراه داشته باشه.

دسته‌بندی سیستم‌های هوش مصنوعی بر اساس ریسک

رویکرد این قانون، سیستم‌های هوش مصنوعی رو به شکل زیر طبقه‌بندی می‌کنه:

  • ریسک غیرقابل قبول (Unacceptable Risk): این دسته شامل کاربردهایی از هوش مصنوعیه که غیراخلاقی تلقی میشن و تهدیدی آشکار برای امنیت، معیشت و حقوق افراد به حساب میان. این سیستم‌ها به طور کامل ممنوع هستن. نمونه‌هایی از این موارد عبارتند از: سیستم‌های امتیازدهی اجتماعی (Social Scoring)، دستکاری رفتار انسان به شیوه‌های مضر، بهره‌برداری از آسیب‌پذیری‌های افراد، و شناسایی بیومتریک آنی و از راه دور در فضاهای عمومی برای اهداف انتظامی (با استثناهای بسیار محدود).
  • ریسک بالا (High Risk): این دسته شامل سیستم‌هایی میشه که میتونن ریسک جدی برای سلامت، ایمنی یا حقوق اساسی افراد ایجاد کنن. کاربردهایی مثل ابزارهای تشخیصی پزشکی، نرم‌افزارهای پشتیبانی از تصمیمات بالینی، سیستم‌های استخدام، ارزیابی اعتبار، مدیریت زیرساخت‌های حیاتی (مثل حمل و نقل یا تامین آب)، و هر سیستمی که مستقیما بر ایمنی بیمار یا نتایج بالینی تاثیر میذاره، در این دسته قرار میگیرن. این سیستم‌ها باید الزامات سخت‌گیرانه‌ای مثل ارزیابی و مدیریت ریسک، کیفیت بالای داده‌ها، مستندسازی فنی دقیق، نظارت انسانی و ارزیابی انطباق قبل از عرضه به بازار رو رعایت کنن.
  • ریسک محدود (Limited Risk): سیستم‌هایی مثل چت‌بات‌ها یا تولیدکننده‌های دیپ‌فیک (Deepfake) در این دسته قرار میگیرن. این سیستم‌ها باید الزامات شفافیت رو رعایت کنن؛ یعنی کاربران باید آگاه باشن که در حال تعامل با یک ماشین هستن و محتوای تولید شده توسط هوش مصنوعی باید به وضوح برچسب‌گذاری بشه.
  • ریسک حداقلی یا بدون ریسک (Minimal Risk): اکثر ابزارهای مصرفی مثل فیلترهای اسپم یا بازی‌های ویدیویی در این دسته قرار میگیرن و تعهدات کمی دارن یا اصلا مشمول قوانین جدید نمیشن.

قوانین ویژه برای هوش مصنوعی چندمنظوره (GPAI)

قانون هوش مصنوعی اتحادیه اروپا توجه ویژه‌ای به مدل‌های هوش مصنوعی چندمنظوره (GPAI) یا مدل‌های پایه‌ای مثل GPT-4 و Gemini داره. این مدل‌ها به دلیل قابلیت استفاده در طیف وسیعی از کاربردها، از جمله در زمینه‌های پرخطر پزشکی یا نظارتی، با بررسی‌های دقیق‌تری روبرو هستن. ارائه‌دهندگان این مدل‌ها (به جز مدل‌های متن‌باز) باید قوانین شفافیت و حق تکثیر رو رعایت کنن.

برای مدل‌هایی که “ریسک سیستمی” ایجاد می‌کنن (مثلا مدل‌هایی که با توان محاسباتی بیش از ۱۰ به توان ۲۵ فلاپس آموزش دیده‌اند)، الزامات فنی و حاکمیتی خاصی در نظر گرفته شده. البته استفاده از “فلاپس” به عنوان معیار، مورد انتقاد قرار گرفته چون محققان معتقدن مدل‌های کوچکتر که با داده‌های باکیفیت آموزش دیده‌اند، میتونن با مدل‌های بسیار بزرگتر رقابت کنن و این معیار به تنهایی قدرت یا ریسک یک مدل رو نشون نمیده.

جنجال‌ها و فشارها برای به تاخیر انداختن قانون

با نزدیک شدن به زمان اجرای بخش‌های مختلف قانون، فشارها برای به تعویق انداختن اون افزایش پیدا کرده.

درخواست صنعت برای توقف

در اوایل ژوییه ۲۰۲۵، مدیران عامل بیش از ۴۰ شرکت بزرگ اروپایی از جمله ASML، فیلیپس، زیمنس، ایرباس، مرسدس-بنز و میسترال، در نامه‌ای از کمیسیون اروپا خواستن تا با یک “توقف دوساله” (clock-stop) اجرای قانون رو به تعویق بندازه. اونها معتقد بودن که این تاخیر برای پیاده‌سازی منطقی توسط شرکت‌ها و ساده‌سازی بیشتر قوانین “نامشخص و پیچیده” ضروریه. این درخواست از سوی چهره‌های سیاسی مثل نخست‌وزیر سوئد هم حمایت شد.

پاسخ قاطع کمیسیون اروپا

با این حال، کمیسیون اروپا این درخواست‌ها رو به شدت رد کرد. توماس رنیه (Thomas Regnier)، سخنگوی کمیسیون، در یک کنفرانس خبری در تاریخ ۴ ژوییه ۲۰۲۵ به صراحت اعلام کرد:

“هیچ توقفی در کار نیست. هیچ دوره مهلتی وجود نداره. هیچ وقفه‌ای در کار نیست.”

توماس رنیه (Thomas Regnier)، سخنگوی کمیسیون

او تاکید کرد که مهلت‌های قانونی در یک متن حقوقی تعیین شده و طبق برنامه پیش خواهد رفت.

نگرانی جامعه مدنی

از طرف دیگه، بیش از ۵۲ سازمان جامعه مدنی، کارشناس و دانشگاهی، از جمله EDRi و BEUC، در نامه‌ای به کمیسیون اروپا نگرانی خودشون رو از فشارها برای به تعویق انداختن قانون ابراز کردن. اونها معتقد بودن که دستور کار “ساده‌سازی” نباید بهانه‌ای برای مقررات‌زدایی و تضعیف حقوق اساسی و حمایت‌های قانونی به دست اومده برای مردم و دموکراسی بشه.

یکی از دلایل اصلی درخواست تاخیر، آماده نبودن “کد رویه” (Code of Practice) برای مدل‌های GPAI بود. این کد که قرار بود به شرکت‌ها در زمینه انطباق با قوانین کمک کنه، از مهلت اولیه خودش در ۲ می ۲۰۲۵ عقب افتاد و انتظار میره در ژوییه یا آگوست ۲۰۲۵ نهایی بشه. این تاخیر، شرکت‌ها رو با عدم قطعیت نظارتی مواجه کرده.

جدول زمانی اجرای قانون

اجرای قانون هوش مصنوعی به صورت مرحله‌ای انجام میشه:

تاریخ اجراتعهدات و قوانین
فوریه ۲۰۲۵ممنوعیت سیستم‌های با ریسک غیرقابل قبول و اجرای الزامات سواد هوش مصنوعی.
آگوست ۲۰۲۵لازم‌الاجرا شدن قوانین مربوط به مدل‌های GPAI و ساختارهای حاکمیتی.
آگوست ۲۰۲۶سیستم‌های با ریسک بالا باید انطباق کامل خودشون رو با قوانین نشون بدن.
آگوست ۲۰۲۷مهلت انطباق برای مدل‌های GPAI موجود در بازار و سیستم‌های پرخطر تعبیه شده در محصولات دیگر (مثل تجهیزات پزشکی) به پایان میرسه.

الزامات سواد هوش مصنوعی (AI Literacy)

از تاریخ ۲ فوریه ۲۰۲۵، طبق ماده ۴ قانون، ارائه‌دهندگان و استفاده‌کنندگان سیستم‌های هوش مصنوعی موظف هستن سطح “کفایت سواد هوش مصنوعی” رو بین کارکنان خودشون تضمین کنن. این الزام برای تمام سیستم‌های هوش مصنوعی (نه فقط سیستم‌های پرخطر) اعمال میشه و شامل تمام افرادی که با این سیستم‌ها در تعامل هستن (از جمله پیمانکاران) میشه. این سواد فقط درک فنی نیست، بلکه شامل توانایی ارزیابی پیامدهای قانونی و اخلاقی، تفسیر انتقادی خروجی‌ها و اعمال نظارت مناسب هم میشه.

تاثیر جهانی و وظایف شرکت‌ها

این قانون، به دلیل دامنه فرامرزی خودش، تاثیری مشابه با GDPR در زمینه حریم خصوصی داده‌ها خواهد داشت. شرکت‌های آمریکایی و سایر شرکت‌های غیراروپایی که به مشتریان اروپایی خدمات میدن، باید خودشون رو با این قوانین تطبیق بدن. به گفته کارشناسان، حتی اگه آمریکا قانون فدرال مشابهی تصویب نکنه، مصرف‌کنندگان به تدریج به استانداردهای بالاتر شفافیت عادت می‌کنن و این امر شرکت‌های آمریکایی رو برای حفظ رقابت‌پذیری مجبور به پیروی از این استانداردها می‌کنه.

برای آمادگی، به شرکت‌ها توصیه میشه اقدامات زیر رو فورا شروع کنن:

  1. فهرست‌بندی ابزارهای هوش مصنوعی: تمام سیستم‌هایی که ممکنه با بازار اروپا در ارتباط باشن رو شناسایی و ریسک اونها رو طبقه‌بندی کنین.
  2. اجتناب از کاربردهای ممنوعه: فورا هر سیستمی که در دسته ریسک غیرقابل قبول قرار میگیره رو متوقف یا اصلاح کنین.
  3. آمادگی برای انطباق: جمع‌آوری مستندات فنی، انجام ارزیابی ریسک، و ایجاد یک چارچوب حاکمیت داخلی برای هوش مصنوعی رو شروع کنین.
  4. مطلع ماندن: راهنمایی‌های جدید اتحادیه اروپا و استانداردهای در حال ظهور رو دنبال کنین.
  5. آموزش تیم‌ها: اطمینان حاصل کنین که تیم‌های محصول، حقوقی و انطباق، قانون هوش مصنوعی رو درک کرده و اون رو در فرآیندهای توسعه لحاظ می‌کنن.

همچنین، برای بسیاری از شرکت‌های مستقر در خارج از اتحادیه اروپا، تعیین یک نماینده رسمی در این اتحادیه ضروری خواهد بود. در نهایت، باید توجه داشت که این قانون، مسئولیت مشترک یا انحصاری رو حتی برای استفاده‌کنندگان از هوش مصنوعی (Deployers) که خودشون سیستم رو نساختن، در نظر میگیره. این امر اهمیت همکاری بین تیم‌های مختلف یک سازمان مثل کیفیت، امور نظارتی، IT، حریم خصوصی داده و عملیات بالینی رو دوچندان می‌کنه.

Sources for “EU AI rules”

دیدگاه‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *