2025/05/20

في تقرير تحليلي صادر عن مركز الدراسات الأوروبية للسياسات (CEPS) لصالح المفوضية الأوروبية، تم تقديم دراسة شاملة لنتائج الاستشارات التي أجراها )مكتب الذكاء الاصطناعي التابع للاتحاد الأوروبي( بشأن نقطتين محوريتين في تنظيم الذكاء الاصطناعي: تعريف )نظام الذكاء الاصطناعي)، وتحديد التطبيقات المحظورة وفقاً للمادة الخامسة من قانون الذكاء الاصطناعي الأوروبي.

أولاً: المشاركين في الاستشارة

أظهر التقرير أن غالبية المشاركين ينتمون إلى جهات صناعية أو تقنية بنسبة 47.2%، بينما لم تتجاوز نسبة المواطنين العاديين 5.74%. وشهدت الاستشارة تمثيلاً جغرافياً واسعاً داخل دول الاتحاد الأوروبي، مع هيمنة واضحة للدول الكبرى مثل ألمانيا وبلجيكا وفرنسا، إضافة إلى مساهمات محدودة من دول خارج الاتحاد مثل الولايات المتحدة والمملكة المتحدة.

ثانياً: إشكالية تعريف (نظام الذكاء الاصطناعي)

برزت خلال الاستشارة حاجة ملحة لتوضيح مصطلحات تقنية رئيسية في تعريف نظام الذكاء الاصطناعي، مثل (القدرة على التكيف)، و(الاستدلال)، و(الاستقلالية). وأعرب عدد من أصحاب المصلحة عن قلقهم من أن التعريف الحالي قد يشمل برمجيات تقليدية لا تتسم بالخصائص الأساسية للذكاء الاصطناعي، مثل الأنظمة القائمة على القواعد أو النماذج الإحصائية التقليدية. وطالب العديد منهم بإصدار إرشادات تطبيقية وأمثلة محددة تُسهم في التمييز بين الأنظمة الخاضعة للتنظيم وتلك الخارجة عن نطاقه.

ثالثاً: التطبيقات المحظورة بموجب المادة الخامسة

سلط التقرير الضوء على مجموعة من التطبيقات التي أثارت جدلاً واسعاً بين المشاركين، ومن أبرزها:

  1. أنظمة التعرف على المشاعر: أثيرت مخاوف قانونية وأخلاقية بشأن استخدامها، لا سيما في بيئات العمل والتعليم والتسويق، لما قد تشكله من انتهاك للخصوصية أو تمييز قائم على الانفعالات.
  2. تصنيف الأفراد بيومترياً: تم التحذير من مخاطره في تعميم الصور النمطية أو التمييز غير المشروع، لاسيما في السياقات الأمنية أو التجارية.
  3. ممارسات التنميط الاجتماعي :(Social Scoring) عُدّت هذه الممارسات غير مقبولة من وجهة نظر عدد كبير من المشاركين، لتأثيرها على المساواة والحقوق الأساسية، خصوصاً حين تُستخدم بيانات من سياقات غير ذات صلة لتقييم الأفراد.
  4. التقييم الجنائي الاستباقي: أثار هذا النوع من التطبيقات مخاوف بشأن انتهاك مبدأ قرينة البراءة وغياب الشفافية في القرارات المستندة إلى نماذج تنبؤية.
  5. جمع صور الوجه من الإنترنت بشكل عشوائي: تركز الجدل حول مشروعية إنشاء قواعد بيانات للتمييز الوجهي من خلال تقنيات الزحف غير المستهدفة، حيث أشار المشاركون إلى تعارض هذه الممارسات مع قواعد حماية البيانات العامة .(GDPR)    

رابعاً: التحديات الخاصة بالمؤسسات الصغيرة والمتوسطة

أشارت الدراسة إلى أن هذه المؤسسات تواجه صعوبات كبيرة في الامتثال لمتطلبات القانون الجديد، خصوصاً في غياب إرشادات عملية واضحة. وطالب المشاركون بتوفير مسارات امتثال مبسطة ودعم تقني وقانوني يراعي قدرات هذه الجهات دون تقويض الابتكار.

خامساً: التوصيات الأساسية

خلص التقرير إلى عدد من التوصيات الهامة التي ينبغي على مكتب الذكاء الاصطناعي التابع للاتحاد الأوروبي أخذها بعين الاعتبار، ومن أبرزها:

  • تطوير إرشادات تفسيرية مفصلة توضح المصطلحات التقنية الغامضة في القانون.
  • تقديم أمثلة واقعية تُمكن الجهات المعنية من التمييز بين الاستخدامات المسموح بها وتلك المحظورة.
  • ضمان التوازن بين حماية الحقوق الأساسية وتعزيز الابتكار في مجال الذكاء الاصطناعي.
  • مواءمة قانون الذكاء الاصطناعي مع التشريعات الأوروبية القائمة، خاصةً اللائحة العامة لحماية البيانات.
  • وضع آليات رقابية فعالة للأنظمة عالية الخطورة، وضمان الشفافية والمساءلة في استخدامها.

خاتمة

يُظهر هذا التقرير التحليلي الحاجة الماسة إلى توضيح ومواءمة الإطار التنظيمي الأوروبي للذكاء الاصطناعي. إذ أن الغموض في التعريفات، وتداخل المجالات المحظورة، وصعوبة التطبيق العملي، كلها عوامل تؤكد ضرورة تطوير إرشادات تنفيذية شاملة تراعي التوازن بين حماية الحقوق وتعزيز الابتكار المسؤول.