قانون هوش مصنوعی اتحادیه اروپا (EU AI Act) که به طور رسمی تصویب شده، به عنوان اولین چارچوب قانونی جامع برای هوش مصنوعی در جهان شناخته میشه و پیامدهای عمیقی برای صنایع مختلف، از جمله علوم زیستی و شرکتهای فناوری در سراسر جهان داره. این قانون فقط شرکتهای اروپایی رو هدف قرار نمیده؛ هر شرکتی، حتی خارج از اتحادیه اروپا، که سیستمها یا خروجیهای هوش مصنوعیش در این اتحادیه استفاده بشه، باید از این قوانین پیروی کنه. این موضوع شرکتهای بیوتکنولوژی، توسعهدهندگان تجهیزات پزشکی و تولیدکنندگان دارو با هرگونه ارتباطی در اروپا رو شامل میشه.
این قانون بر اساس یک رویکرد مبتنی بر ریسک طراحی شده و سیستمهای هوش مصنوعی رو به چهار دسته تقسیم میکنه. عدم رعایت این مقررات میتونه جریمههای سنگینی تا سقف ۳۵ میلیون یورو یا ۷ درصد از گردش مالی جهانی شرکت رو به همراه داشته باشه.
دستهبندی سیستمهای هوش مصنوعی بر اساس ریسک
رویکرد این قانون، سیستمهای هوش مصنوعی رو به شکل زیر طبقهبندی میکنه:
- ریسک غیرقابل قبول (Unacceptable Risk): این دسته شامل کاربردهایی از هوش مصنوعیه که غیراخلاقی تلقی میشن و تهدیدی آشکار برای امنیت، معیشت و حقوق افراد به حساب میان. این سیستمها به طور کامل ممنوع هستن. نمونههایی از این موارد عبارتند از: سیستمهای امتیازدهی اجتماعی (Social Scoring)، دستکاری رفتار انسان به شیوههای مضر، بهرهبرداری از آسیبپذیریهای افراد، و شناسایی بیومتریک آنی و از راه دور در فضاهای عمومی برای اهداف انتظامی (با استثناهای بسیار محدود).
- ریسک بالا (High Risk): این دسته شامل سیستمهایی میشه که میتونن ریسک جدی برای سلامت، ایمنی یا حقوق اساسی افراد ایجاد کنن. کاربردهایی مثل ابزارهای تشخیصی پزشکی، نرمافزارهای پشتیبانی از تصمیمات بالینی، سیستمهای استخدام، ارزیابی اعتبار، مدیریت زیرساختهای حیاتی (مثل حمل و نقل یا تامین آب)، و هر سیستمی که مستقیما بر ایمنی بیمار یا نتایج بالینی تاثیر میذاره، در این دسته قرار میگیرن. این سیستمها باید الزامات سختگیرانهای مثل ارزیابی و مدیریت ریسک، کیفیت بالای دادهها، مستندسازی فنی دقیق، نظارت انسانی و ارزیابی انطباق قبل از عرضه به بازار رو رعایت کنن.
- ریسک محدود (Limited Risk): سیستمهایی مثل چتباتها یا تولیدکنندههای دیپفیک (Deepfake) در این دسته قرار میگیرن. این سیستمها باید الزامات شفافیت رو رعایت کنن؛ یعنی کاربران باید آگاه باشن که در حال تعامل با یک ماشین هستن و محتوای تولید شده توسط هوش مصنوعی باید به وضوح برچسبگذاری بشه.
- ریسک حداقلی یا بدون ریسک (Minimal Risk): اکثر ابزارهای مصرفی مثل فیلترهای اسپم یا بازیهای ویدیویی در این دسته قرار میگیرن و تعهدات کمی دارن یا اصلا مشمول قوانین جدید نمیشن.
قوانین ویژه برای هوش مصنوعی چندمنظوره (GPAI)
قانون هوش مصنوعی اتحادیه اروپا توجه ویژهای به مدلهای هوش مصنوعی چندمنظوره (GPAI) یا مدلهای پایهای مثل GPT-4 و Gemini داره. این مدلها به دلیل قابلیت استفاده در طیف وسیعی از کاربردها، از جمله در زمینههای پرخطر پزشکی یا نظارتی، با بررسیهای دقیقتری روبرو هستن. ارائهدهندگان این مدلها (به جز مدلهای متنباز) باید قوانین شفافیت و حق تکثیر رو رعایت کنن.
برای مدلهایی که “ریسک سیستمی” ایجاد میکنن (مثلا مدلهایی که با توان محاسباتی بیش از ۱۰ به توان ۲۵ فلاپس آموزش دیدهاند)، الزامات فنی و حاکمیتی خاصی در نظر گرفته شده. البته استفاده از “فلاپس” به عنوان معیار، مورد انتقاد قرار گرفته چون محققان معتقدن مدلهای کوچکتر که با دادههای باکیفیت آموزش دیدهاند، میتونن با مدلهای بسیار بزرگتر رقابت کنن و این معیار به تنهایی قدرت یا ریسک یک مدل رو نشون نمیده.
جنجالها و فشارها برای به تاخیر انداختن قانون
با نزدیک شدن به زمان اجرای بخشهای مختلف قانون، فشارها برای به تعویق انداختن اون افزایش پیدا کرده.
درخواست صنعت برای توقف
در اوایل ژوییه ۲۰۲۵، مدیران عامل بیش از ۴۰ شرکت بزرگ اروپایی از جمله ASML، فیلیپس، زیمنس، ایرباس، مرسدس-بنز و میسترال، در نامهای از کمیسیون اروپا خواستن تا با یک “توقف دوساله” (clock-stop) اجرای قانون رو به تعویق بندازه. اونها معتقد بودن که این تاخیر برای پیادهسازی منطقی توسط شرکتها و سادهسازی بیشتر قوانین “نامشخص و پیچیده” ضروریه. این درخواست از سوی چهرههای سیاسی مثل نخستوزیر سوئد هم حمایت شد.
پاسخ قاطع کمیسیون اروپا
با این حال، کمیسیون اروپا این درخواستها رو به شدت رد کرد. توماس رنیه (Thomas Regnier)، سخنگوی کمیسیون، در یک کنفرانس خبری در تاریخ ۴ ژوییه ۲۰۲۵ به صراحت اعلام کرد:
“هیچ توقفی در کار نیست. هیچ دوره مهلتی وجود نداره. هیچ وقفهای در کار نیست.”
توماس رنیه (Thomas Regnier)، سخنگوی کمیسیون
او تاکید کرد که مهلتهای قانونی در یک متن حقوقی تعیین شده و طبق برنامه پیش خواهد رفت.
نگرانی جامعه مدنی
از طرف دیگه، بیش از ۵۲ سازمان جامعه مدنی، کارشناس و دانشگاهی، از جمله EDRi و BEUC، در نامهای به کمیسیون اروپا نگرانی خودشون رو از فشارها برای به تعویق انداختن قانون ابراز کردن. اونها معتقد بودن که دستور کار “سادهسازی” نباید بهانهای برای مقرراتزدایی و تضعیف حقوق اساسی و حمایتهای قانونی به دست اومده برای مردم و دموکراسی بشه.
یکی از دلایل اصلی درخواست تاخیر، آماده نبودن “کد رویه” (Code of Practice) برای مدلهای GPAI بود. این کد که قرار بود به شرکتها در زمینه انطباق با قوانین کمک کنه، از مهلت اولیه خودش در ۲ می ۲۰۲۵ عقب افتاد و انتظار میره در ژوییه یا آگوست ۲۰۲۵ نهایی بشه. این تاخیر، شرکتها رو با عدم قطعیت نظارتی مواجه کرده.
جدول زمانی اجرای قانون
اجرای قانون هوش مصنوعی به صورت مرحلهای انجام میشه:
تاریخ اجرا | تعهدات و قوانین |
---|---|
فوریه ۲۰۲۵ | ممنوعیت سیستمهای با ریسک غیرقابل قبول و اجرای الزامات سواد هوش مصنوعی. |
آگوست ۲۰۲۵ | لازمالاجرا شدن قوانین مربوط به مدلهای GPAI و ساختارهای حاکمیتی. |
آگوست ۲۰۲۶ | سیستمهای با ریسک بالا باید انطباق کامل خودشون رو با قوانین نشون بدن. |
آگوست ۲۰۲۷ | مهلت انطباق برای مدلهای GPAI موجود در بازار و سیستمهای پرخطر تعبیه شده در محصولات دیگر (مثل تجهیزات پزشکی) به پایان میرسه. |
الزامات سواد هوش مصنوعی (AI Literacy)
از تاریخ ۲ فوریه ۲۰۲۵، طبق ماده ۴ قانون، ارائهدهندگان و استفادهکنندگان سیستمهای هوش مصنوعی موظف هستن سطح “کفایت سواد هوش مصنوعی” رو بین کارکنان خودشون تضمین کنن. این الزام برای تمام سیستمهای هوش مصنوعی (نه فقط سیستمهای پرخطر) اعمال میشه و شامل تمام افرادی که با این سیستمها در تعامل هستن (از جمله پیمانکاران) میشه. این سواد فقط درک فنی نیست، بلکه شامل توانایی ارزیابی پیامدهای قانونی و اخلاقی، تفسیر انتقادی خروجیها و اعمال نظارت مناسب هم میشه.
تاثیر جهانی و وظایف شرکتها
این قانون، به دلیل دامنه فرامرزی خودش، تاثیری مشابه با GDPR در زمینه حریم خصوصی دادهها خواهد داشت. شرکتهای آمریکایی و سایر شرکتهای غیراروپایی که به مشتریان اروپایی خدمات میدن، باید خودشون رو با این قوانین تطبیق بدن. به گفته کارشناسان، حتی اگه آمریکا قانون فدرال مشابهی تصویب نکنه، مصرفکنندگان به تدریج به استانداردهای بالاتر شفافیت عادت میکنن و این امر شرکتهای آمریکایی رو برای حفظ رقابتپذیری مجبور به پیروی از این استانداردها میکنه.
برای آمادگی، به شرکتها توصیه میشه اقدامات زیر رو فورا شروع کنن:
- فهرستبندی ابزارهای هوش مصنوعی: تمام سیستمهایی که ممکنه با بازار اروپا در ارتباط باشن رو شناسایی و ریسک اونها رو طبقهبندی کنین.
- اجتناب از کاربردهای ممنوعه: فورا هر سیستمی که در دسته ریسک غیرقابل قبول قرار میگیره رو متوقف یا اصلاح کنین.
- آمادگی برای انطباق: جمعآوری مستندات فنی، انجام ارزیابی ریسک، و ایجاد یک چارچوب حاکمیت داخلی برای هوش مصنوعی رو شروع کنین.
- مطلع ماندن: راهنماییهای جدید اتحادیه اروپا و استانداردهای در حال ظهور رو دنبال کنین.
- آموزش تیمها: اطمینان حاصل کنین که تیمهای محصول، حقوقی و انطباق، قانون هوش مصنوعی رو درک کرده و اون رو در فرآیندهای توسعه لحاظ میکنن.
همچنین، برای بسیاری از شرکتهای مستقر در خارج از اتحادیه اروپا، تعیین یک نماینده رسمی در این اتحادیه ضروری خواهد بود. در نهایت، باید توجه داشت که این قانون، مسئولیت مشترک یا انحصاری رو حتی برای استفادهکنندگان از هوش مصنوعی (Deployers) که خودشون سیستم رو نساختن، در نظر میگیره. این امر اهمیت همکاری بین تیمهای مختلف یک سازمان مثل کیفیت، امور نظارتی، IT، حریم خصوصی داده و عملیات بالینی رو دوچندان میکنه.
Sources for “EU AI rules”
- The EU AI Act Is Here: What Life Sciences Companies Need to Know Now
- EU AI Act at the Crossroads: GPAI Rules, AI Literacy Guidance and Potential Delays | JD Supra
- European Commission must champion the AI Act – European Digital Rights (EDRi)
- Understanding the Emerging AI Regulations – Shailendra Kumar – Medium
- The EU AI Act Is Here — And U.S. Businesses Can’t Afford to Ignore It
- Privacy, consumer groups warn against delays and backtracking on AI
- Europe’s AI law needs a smart pause, not a full stop
- Lexington Institute
- Responsible AI and regulatory readiness: what you need to know
- AI surveillance and the governance vacuum in the Asia-Pacific
- EU sticks with timeline for AI rules
- EU says it will continue rolling out AI legislation on schedule | TechCrunch
- Code of practice to help firms comply with AI rules may apply end 2025, EU says
- Initial Prohibitions Under EU AI Act Take Effect
- EU AI Act Compliance Checker
- Artificial Intelligence Act
- European Commission Says It Won’t Delay Implementation of AI Act
دیدگاهتان را بنویسید