في إطار سعي الاتحاد الأوروبي لتنظيم استخدام الذكاء الاصطناعي (AI) وضمان توافقه مع الحقوق الأساسية والسلامة العامة، صدر (قانون الذكاء الاصطناعي الأوروبي) المعروف بـ EU AI Act، كأول إطار قانوني شامل لتنظيم تقنيات الذكاء الاصطناعي في العالم. وقد أصدرت شركة المحاماة الدولية White & Case LLP هذا الدليل العملي في مايو 2025 لمساعدة الشركات والجهات الفاعلة في السوق على فهم متطلبات القانون الأوروبي للذكاء الاصطناعي وتطبيقه بصورة فعالة وواقعية، مع التركيز على التفسير العملي بدلاً من التنظير القانوني المجرد.
ويهدف هذا القانون إلى تحقيق توازن دقيق بين دعم الابتكار التكنولوجي من جهة، وضمان حماية الأفراد والمجتمع من المخاطر المرتبطة بهذه التكنولوجيا من جهة أخرى.
أولًا: نطاق التطبيق وتعريف المصطلحات
يشمل نطاق تطبيق القانون طيفًا واسعًا من الجهات الفاعلة في سلسلة القيمة للذكاء الاصطناعي، مثل (المزودين) الذين يطورون أنظمة الذكاء الاصطناعي أو نماذج الذكاء الاصطناعي العامة (GPAI)، و(المستخدمين) الذين يقومون بتشغيلها. ويتميز القانون بتطبيقه الإقليمي الواسع الذي يمتد ليشمل الجهات خارج المنطقة الاقتصادية الأوروبية (EEA) إذا تم استخدام مخرجات أنظمتها داخل الاتحاد الأوروبي، بصرف النظر عن نية الجهة المعنية.
يعتمد القانون على مجموعة من المصطلحات التقنية والقانونية الأساسية مثل: (نظام الذكاء الاصطناعي)، (النموذج العام للذكاء الاصطناعي)، (المستخدم)، (المزود)، و(الممثل المعتمد)، وكل منها يترتب عليه التزامات قانونية وتنظيمية دقيقة.
ثانيًا: التصنيف القائم على درجة المخاطر
يتبنى القانون نهجًا قائمًا على تقييم المخاطر، حيث يتم تصنيف أنظمة الذكاء الاصطناعي إلى أربع فئات:
1. الأنظمة المحظورة (Unacceptable Risk) وهي التي تعد تهديدًا صريحًا للحقوق الأساسية (مثل أنظمة التسجيل الحيوي في الأماكن العامة أو أنظمة التسجيل الاجتماعي).
2. الأنظمة عالية الخطورة (High-Risk) تشمل الأنظمة المستخدمة في مجالات حساسة كالتوظيف، التعليم، الصحة، والعدالة.
3. الأنظمة محدودة الخطورة (Limited Risk) تفرض عليها التزامات بالشفافية كإعلام المستخدم بأنه يتفاعل مع نظام ذكاء اصطناعي.
4. الأنظمة منخفضة الخطورة (Minimal Risk) لا تخضع إلا لمبادئ عامة وتوصيات غير ملزمة.
ثالثًا: الالتزامات المفروضة على الأنظمة عالية الخطورة
تُخضع الأنظمة المصنفة كـ )عالية الخطورة( لمتطلبات صارمة تتعلق بجودة البيانات، الشفافية، التوثيق، إدارة المخاطر، وأمن النظام. كما تفرض على المزودين إجراء تقييمات للامتثال عبر جهات تقييم مستقلة، وتسجيل الأنظمة في قاعدة بيانات أوروبية خاصة بهذه الأنظمة.
رابعًا: الحظر الصريح لبعض الممارسات
يحظر القانون صراحة استخدام أنظمة الذكاء الاصطناعي التي:
- تعتمد على تقنيات خادعة أو استغلالية تؤدي إلى ضرر جسيم.
- تجمع البيانات الحيوية عن طريق المسح غير المستهدف.
- تستنتج المشاعر في البيئات العملية أو التعليمية.
- تستخدم في تصنيف الأفراد بيولوجيًا أو اجتماعيًا بشكل غير مشروع.
- تُوظف لأغراض التنبؤ بالجريمة اعتمادًا على السمات الشخصية فقط.
خامسًا: المسؤوليات المشتركة والتداخل مع قوانين أخرى
يشدد القانون على أهمية التمييز بين الأدوار المختلفة (مزود، مستخدم، مستورد، موزع...) لتحديد المسؤوليات بدقة، مع الاعتراف بإمكانية وجود تداخل في الأدوار.
كما يعترف القانون بالتداخل مع قوانين أوروبية أخرى مثل النظام العام لحماية البيانات (GDPR)، ما يفرض على الشركات التعامل مع التزامات قانونية مزدوجة في حال كانت الأنظمة تتعامل مع بيانات شخصية.
سادسًا: الحاجة إلى الإرشاد العملي
نظرًا لتعقيد القانون وغموض بعض مفاهيمه، تُنصح الشركات باتباع نهج عملي قائم على:
- التوثيق المستمر للقرارات القانونية والتقنية.
- تبني مواقف قانونية قابلة للدفاع.
- تطوير ثقافة (التمكن من الذكاء الاصطناعي) داخل فرق العمل.
- متابعة التحديثات التنظيمية والقضائية المتصلة.
خاتمة
يعد قانون الذكاء الاصطناعي الأوروبي خطوة فارقة في تنظيم تكنولوجيا الذكاء الاصطناعي على المستوى العالمي، إذ يحدد قواعد صارمة توازن بين الابتكار والحماية القانونية. وعلى الجهات الفاعلة الاستعداد المبكر لتطبيق أحكامه ومتابعة تطوراته لضمان الامتثال وتقليل المخاطر التشغيلية والقانونية.