بتاريخ 13 يونيو 2024، أصدر البرلمان الأوروبي قانون الذكاء الاصطناعي للاتحاد الأوروبي، والذي يعد إنجازاً تشريعيًا هامًا يهدف إلى تنظيم استخدام أنظمة الذكاء الاصطناعي في جميع دول الاتحاد الأوروبي. ويعد هذا القانون الأول من نوعه على مستوى العالم الذي يهدف إلى ضمان سلامة وأمن هذه الأنظمة، وحماية الحقوق الأساسية، وتعزيز الابتكار في مجال الذكاء الاصطناعي، بما يجعل الاتحاد الأوروبي رائدًا عالميًا في هذا المجال.
ويهدف هذا القانون إلى تحسين عمل السوق الداخلية للاتحاد الأوروبي من خلال وضع إطار قانوني موحد، وخاصة لتطوير ووضع وتشغيل واستخدام أنظمة الذكاء الاصطناعي في الاتحاد الأوروبي، وذلك بما يتماشى مع قيم الاتحاد الأوروبي. كما يهدف إلى تعزيز اعتماد الذكاء الاصطناعي الذي يركز على الإنسان والذي يمكن الوثوق به مع ضمان مستوى عالٍ من الحماية للصحة والسلامة والحقوق الأساسية المنصوص عليها في ميثاق الحقوق الأساسية للاتحاد الأوروبي، بما في ذلك الديمقراطية وسيادة القانون وحماية البيئة. وبالإضافة إلى ذلك، يهدف القانون إلى الحماية من الآثار الضارة لأنظمة الذكاء الاصطناعي ودعم الابتكار. كما يضمن هذا القانون حرية حركة السلع والخدمات القائمة على الذكاء الاصطناعي عبر الحدود، وبالتالي يمنع الدول الأعضاء من فرض قيود على تطوير وتسويق واستخدام أنظمة الذكاء الاصطناعي، إلا إذا كان هذا الأمر مصرحًا به صراحةً بموجب هذا القانون. كما يسعى القانون إلى جعل الاتحاد الأوروبي رائدًا عالميًا في مجال الذكاء الاصطناعي، من خلال تطوير معايير عالمية لسلامة وأمن هذه الأنظمة.
وقد شمل نطاق تطبيق القانون جميع أنظمة الذكاء الاصطناعي، بغض النظر عن حجمها أو كيفية استخدامها. كما صنف مخاطر استخدام أنظمة الذكاء الاصطناعي ضمن 4 فئات:
· أنظمة منخفضة المخاطر.
· أنظمة ذات مخاطر محدودة أو ضئيلة.
· أنظمة عالية المخاطر، وهي أنظمة يمكن أن يكون لها تأثير كبير على المستخدم. وتخضع هذه الأنظمة لالتزامات صارمة إذ يجب أن تخضع لتقييمات المطابقة قبل طرحها في سوق الاتحاد الأوروبي.
· أنظمة ذات مخاطر غير مقبولة، والتي لا يُسمح بتسويقها في سوق الاتحاد الأوروبي.
وقد أشار القانون إلى المعيار الذي تم من خلاله تحديد فئات المخاطر سالفة البيان، وهي المبادئ الأخلاقية لعام 2019 للذكاء الاصطناعي التي وضعها فريق مستقل رفيع المستوى معنياً بالذكاء الاصطناعي (AI HLEG) عينته المفوضية الأوروبية. حيث قرر الفريق 7 مبادئ أخلاقية غير ملزمة للذكاء الاصطناعي بهدف المساعدة في ضمان جدارة أنظمة الذكاء الاصطناعي وسلامتها الأخلاقية. وتشمل المبادئ السبعة: التدخل والإشراف البشري، السلامة والأمن التقني، الخصوصية وحوكمة البيانات، التنوع وعدم التمييز والإنصاف، الرفاه الاجتماعي والبيئي؛ الشفافية، والمساءلة.
ويدخل هذا القانون حيز التنفيذ بتاريخ 2 أغسطس 2026. فيما عدا:
· الفصلان الأول والثاني: تسري بتاريخ 2 فبراير 2025
· الفصل الثالث القسم 4، الفصل الخامس، الفصل السابع والفصل الثاني عشر والمادة (78): تسري بتاريخ 2 أغسطس 2025، باستثناء المادة (101)
· المادة 6(1) والالتزامات المقابلة في هذا القانون: تسري بتاريخ 2 أغسطس 2027
ولا يزال قانون الذكاء الاصطناعي للاتحاد الأوروبي قيد التطوير، وقد يتم تعديله في المستقبل لمعالجة التطورات الجديدة في مجال الذكاء الاصطناعي.