2025/05/15

إطار حوكمة مبتكر لتعزيز الكفاءة والثقة العامة

شهد القطاع العام تحولًا رقميًا متسارعًا، جعل من الضروري اعتماد تقنيات الذكاء الاصطناعي (AI) بطريقة تتسم بالمسؤولية والاتساق مع المبادئ القانونية والأخلاقية. وفي هذا الإطار، أصدرت الحكومة الإيرلندية (إرشادات الاستخدام المسؤول للذكاء الاصطناعي في القطاع العام)، وهي وثيقة توجيهية شاملة تهدف إلى تمكين موظفي الخدمة العامة من تصميم وتنفيذ نظم ذكاء اصطناعي تراعي حقوق الأفراد وتعزز المصلحة العامة.

أولًا: المبادئ السبعة للاستخدام المسؤول للذكاء الاصطناعي

ترتكز الإرشادات على 7 مبادئ أساسية، مستمدة من التوصيات الأوروبية بشأن (الذكاء الاصطناعي الجدير بالثقة)، وهي:

1.  الوكالة البشرية والرقابة: يجب أن تظل السلطة النهائية لاتخاذ القرار في يد الإنسان، مع ضمان آليات إشراف مناسبة على نظم الذكاء الاصطناعي.

2.  المتانة التقنية والسلامة: ضرورة ضمان أمن النظام ضد التهديدات والخلل الفني، من خلال خطط بديلة واختبارات دورية.

3.  الخصوصية وحوكمة البيانات: الالتزام الصارم بتشريعات حماية البيانات، لا سيما اللائحة العامة لحماية البيانات .(GDPR)

4.  الشفافية: تمكين المستخدمين من فهم كيفية عمل النظام، والإفصاح عن متى وأين يتم استخدام الذكاء الاصطناعي.

5.  التنوع وعدم التمييز والعدالة: منع التحيزات وضمان تكافؤ الفرص لجميع الفئات.

6.  الرفاه المجتمعي والبيئي: استخدام الذكاء الاصطناعي بما يعزز الصالح العام ويحد من التأثيرات السلبية على البيئة والمجتمع.

7.  المساءلة: تحديد المسؤوليات بوضوح وتوفير آليات للمراجعة والتظلم في حال وقوع ضرر.

ثانيًا: الإطار المؤسسي لاستخدام الذكاء الاصطناعي

يوفر الدليل أدوات عملية لمساعدة الإدارات العامة في اتخاذ قرارات رشيدة بشأن تبني الذكاء الاصطناعي، وتشمل:

·     إطار اتخاذ القرار: أداة لتقييم ما إذا كان الذكاء الاصطناعي هو الحل المناسب، ولضمان مواءمة المشروع مع المبادئ السبعة.

·     نموذج المسؤولية :(Responsible AI Canvas) وسيلة لتصميم المشاريع وفقًا للحوكمة الأخلاقية.

·     دورة حياة الذكاء الاصطناعي: توجهات لإدارة المشروع منذ تصميمه إلى إنهائه، مرورًا بالتنفيذ والمراقبة.

ثالثًا: تصنيف المخاطر بموجب قانون الاتحاد الأوروبي للذكاء الاصطناعي

تتماشى الإرشادات مع قانون الذكاء الاصطناعي الأوروبي لعام 2024، الذي يعد أول إطار قانوني شامل على مستوى العالم في هذا المجال. ويصنف القانون نظم الذكاء الاصطناعي وفقًا لمستوى الخطورة:

  • مخاطر غير مقبولة: ممنوعة تمامًا (مثل التصنيف البيومتري حسب العرق).
  • مخاطر عالية: تخضع لشروط صارمة تشمل الشفافية والمراقبة البشرية.
  • مخاطر محدودة: تتطلب إعلام المستخدمين بأنهم يتعاملون مع نظام ذكاء اصطناعي.
  • مخاطر منخفضة أو منعدمة: مثل أدوات الترجمة، والتي لا تستدعي التزامات تنظيمية صارمة.

رابعًا: استخدامات الذكاء الاصطناعي في القطاع العام

يتناول الدليل حالات استخدام عملية، مثل:

·     تحسين الكفاءة: أتمتة المهام الإدارية المتكررة (مثل معالجة الطلبات).

·     تحسين الاستجابة: تطوير خدمات تفاعلية مخصصة (مثل الدردشة الآلية).

·     تعزيز الرقابة: اكتشاف حالات الغش أو سوء الإدارة عبر التحليل التنبؤي.

·     دعم صناعة القرار: من خلال تحليل البيانات على نطاق واسع لوضع سياسات فعالة.

خامسًا: فئات المستخدمين المستهدفين

يوجه الدليل توصياته إلى الفئات التالية:

·     القيادات في القطاع العام: بصفتهم مسؤولين عن ضمان الاتساق مع التشريعات.

·     المهندسين ومطوري النظم: لاتباع أفضل الممارسات الفنية والأمنية.

·     مستخدمي الأنظمة الذكية: لضمان التدقيق في مخرجات الذكاء الاصطناعي وتفعيل الرقابة البشرية.

·     المزودين والمستخدمين المؤسسيين: وفقًا لتعريفات قانون الاتحاد الأوروبي.

خاتمة

يمثل هذا الدليل نموذجًا رائدًا لضمان أن يكون تبني الذكاء الاصطناعي في القطاع العام محفزًا على الابتكار من جهة، ومقيدًا بقواعد الشفافية والعدالة والمساءلة من جهة أخرى. ومن خلال الالتزام الصارم بهذه المبادئ، تسعى الحكومة الإيرلندية إلى بناء ثقة المواطنين في تقنيات الذكاء الاصطناعي، بما يضمن تقديم خدمات عامة أكثر كفاءة.