دليل حوكمة استخدام الذكاء الاصطناعي في القطاع الحكومي
05/02/2026

تقدم وكالة التحول الرقمي الأسترالية (Digital Transformation Agency – DTA) في هذا الدليل أداة تقييم أثر الذكاء الاصطناعي بهدف إرساء إطار منهجي لتقييم وتحليل الآثار والمخاطر المترتبة على استخدام تقنيات الذكاء الاصطناعي في العمل الحكومي.

وترتكز الأداة على مبادئ أخلاقيات الذكاء الاصطناعي المعتمدة وتهدف إلى دعم متخذي القرار في تحديد مدى توافق حالات الاستخدام المقترحة مع متطلبات السلامة، والعدالة، والشفافية، وحماية الخصوصية، والمساءلة المؤسسية.

ويبين الدليل أن الأداة لا تعد بديلاً عن الالتزامات القانونية أو خطط إدارة المخاطر الشاملة، بل تكمل الأطر التشريعية والتنظيمية القائمة من خلال التركيز على المخاطر الخاصة بالذكاء الاصطناعي التي قد لا تغطيها الأدوات التقليدية. كما تفرض السياسة الحكومية ذات الصلة إجراء تقييم إلزامي للأثر بالنسبة لحالات الاستخدام المصنفة ضمن نطاق التطبيق، مع تحديد أدوار واضحة للمسؤولين عن التقييم والاعتماد، وآليات للمراجعة وإعادة التحقق طوال دورة حياة النظام.

أولًا: الإطار العام

تستهدف أداة تقييم أثر الذكاء الاصطناعي الفرق والموظفين العاملين في الجهات الحكومية الأسترالية ممن تتضمن مهامهم تصميم أو تطوير أو استخدام أنظمة ذكاء اصطناعي. ويكمن الغرض الأساسي منها في تحديد وتقييم وإدارة الآثار والمخاطر الخاصة بالذكاء الاصطناعي، بما يضمن توافق الاستخدام مع مبادئ الأخلاقيات المعتمدة، ويعزز الحوكمة الرشيدة للتقنيات الناشئة.

ولا تحل الأداة محل الأطر القانونية أو أنظمة إدارة المخاطر المعمول بها، بل تأتي مكملة لها، من خلال التركيز على المخاطر النوعية التي قد تنشأ عن خصائص الذكاء الاصطناعي، مثل التعقيد، وعدم الشفافية، والاعتماد على البيانات واسعة النطاق.

ثانيًا: الأساس التنظيمي والسياسي للأداة

ترتبط الأداة ارتباطًا مباشرًا بـ سياسة الاستخدام المسؤول للذكاء الاصطناعي في الحكومة الأسترالية، والتي جرى تحديثها ونشرها بالتزامن مع إصدار هذا الدليل. وقد ألزمت السياسة الجهات الحكومية بإجراء تقييم لأثر الذكاء الاصطناعي بالنسبة لحالات الاستخدام التي تقع ضمن نطاقها، وحددت مواعيد زمنية واضحة للامتثال الكامل لتلك المتطلبات، على أن يتم ذلك تدريجيًا وصولًا إلى ديسمبر 2026.

كما تستند الأداة إلى مبادئ أخلاقيات الذكاء الاصطناعي الأسترالية، بما يشمل احترام حقوق الإنسان، وتعزيز العدالة، وضمان السلامة والموثوقية، وحماية الخصوصية، وترسيخ المساءلة.

ثالثًا: طبيعة التقييم ومنهجيته

تعتمد الأداة منهجية تقييم مرحلية تبدأ بما يُعرف بـ التقييم الأولي أو التقييمي العتبي (Threshold Assessment)، والذي يركز على تحديد مستوى المخاطر الكامنة في حالة الاستخدام المقترحة.

فإذا تبين أن جميع المخاطر في هذا التقييم منخفضة، يمكن للجهة المختصة المضي قدمًا في الاستخدام مع الالتزام بمتطلبات المراقبة والمراجعة. أما إذا وجدت مخاطر متوسطة أو مرتفعة، فيتعين استكمال التقييم الشامل الذي يتناول جوانب أعمق وأكثر تفصيلًا.

ويجري التقييم استنادًا إلى مبدأ المخاطر الكامنة قبل تطبيق الضوابط، وليس المخاطر المتبقية بعد المعالجة، بما يضمن رؤية دقيقة لطبيعة الأثر المحتمل.

رابعًا: مجالات المخاطر التي تغطيها الأداة

يتناول الدليل عددًا من مجالات المخاطر الجوهرية المرتبطة باستخدام الذكاء الاصطناعي في القطاع العام، من أبرزها:

  • مخاطر تقليص إمكانية الوصول إلى الخدمات الحكومية أو الإخلال بمبدأ الشمول.
  • مخاطر التمييز غير العادل أو تكريس الانحيازات.
  • مخاطر التنميط أو التمثيل المسيء للأفراد أو الجماعات.
  • مخاطر التسبب في أضرار مادية أو معنوية أو اجتماعية أو بيئية.
  • مخاطر المساس بالخصوصية أو إساءة استخدام البيانات الشخصية.
  • مخاطر أمن المعلومات وحماية البيانات الحساسة.

ويُطلب من الجهة المقيمة تحديد درجة الخطورة واحتمالية وقوعها، مع تقديم مبررات واضحة لكل تقييم.

خامسًا: الأدوار والمسؤوليات المؤسسية

يحدد الدليل أدوارًا تنظيمية واضحة داخل كل جهة حكومية، من بينها:

  • المسؤول عن التقييم: وهو المكلف بإعداد التقييم وتنسيق مدخلات الخبراء.
  • المسؤول المعتمد: وهو صاحب الصلاحية في اعتماد نتائج التقييم ومستويات المخاطر.
  • مالك حالة الاستخدام: وهو المسؤول عن الاستخدام الفعلي للنظام وضمان التزامه بالسياسات.

كما يشدد الدليل على أهمية الاستعانة بالخبرات الفنية والقانونية والأخلاقية كلما اقتضت طبيعة النظام ذلك.

سادسًا: المتابعة وإعادة التحقق

لا يقتصر التقييم – وفقًا للدليل – على مرحلة ما قبل النشر، بل يمتد ليشمل المراقبة المستمرة وإعادة التحقق الدوري، خصوصًا عند حدوث أي تغيير جوهري في نطاق النظام أو طريقة استخدامه أو بياناته. ويعد ذلك عنصرًا أساسيًا لضمان استدامة الامتثال وتقليل المخاطر بمرور الوقت.

خاتمة

تمثل أداة تقييم أثر الذكاء الاصطناعي دليلاً مرجعياً تنظيمياً متقدماً، يهدف إلى إرساء نموذج حوكمة عملي ومتدرج لاستخدام الذكاء الاصطناعي في العمل الحكومي الأسترالي. فهي لا تقيد الابتكار، وإنما تضبطه ضمن إطار يوازن بين التطور التقني وحماية الحقوق والمصالح العامة، بما يعزز الثقة المؤسسية ويضمن الاستخدام الآمن والمسؤول للتقنيات الذكية في الإدارة العامة.