تقرير (OECD) بشأن حوكمة المخاطر القانونية لاستخدام الذكاء الاصطناعي
22/02/2026

يأتي تقرير منظمة التعاون الاقتصادي والتنمية (OECD) (إرشادات العناية الواجبة للذكاء الاصطناعي المسؤول (كوثيقة مرجعية دولية بالغة الأهمية، تهدف إلى وضع إطار عملي ومنهجي لمساعدة المؤسسات، ولا سيما الشركات متعددة الجنسيات، على إدارة المخاطر القانونية والأخلاقية والاجتماعية المرتبطة بتطوير واستخدام أنظمة الذكاء الاصطناعي، وذلك في ضوء التحولات المتسارعة التي يشهدها هذا المجال.

أولاً: الخلفية القانونية والتنظيمية للتقرير

ينطلق التقرير من توصية مجلس منظمة التعاون الاقتصادي والتنمية بشأن الذكاء الاصطناعي، المعدلة عام 2024، ومن إرشادات المنظمة بشأن السلوك التجاري المسؤول للشركات متعددة الجنسيات (MNE Guidelines)، ليؤكد أن الذكاء الاصطناعي، رغم كونه أداة للابتكار والنمو الاقتصادي، قد ينطوي على مخاطر جسيمة تمس حقوق الإنسان، وحماية البيانات، وسوق العمل، وسلامة الأفراد، وسيادة القانون.

وعليه، يرسخ التقرير فكرة أن الامتثال الطوعي للمعايير الدولية لم يعد مجرد التزام أخلاقي، بل أصبح عنصراً جوهرياً في الحوكمة الرشيدة وإدارة المخاطر القانونية والتنظيمية.

ثانياً: الهدف القانوني للتقرير

يهدف التقرير إلى ترجمة المبادئ العامة للذكاء الاصطناعي المسؤول والسلوك التجاري المسؤول إلى إطار تطبيقي عملي يمكن للمؤسسات الاسترشاد به، دون أن يشكل بديلاً عن القوانين الوطنية أو التزامات الامتثال الإلزامي.

ويؤكد التقرير صراحة أن هذه الإرشادات لا تنشئ التزامات قانونية مباشرة، لكنها تمثل معياراً مرجعياً مهماً قد يُستأنس به في التقييمات التنظيمية، أو في آليات المساءلة غير القضائية، أو حتى في النزاعات العابرة للحدود.

ثالثاً: إطار العناية الواجبة للذكاء الاصطناعي

يعتمد التقرير على نموذج العناية الواجبة القائمة على المخاطر، ويحدده في ست خطوات مترابطة ودورية، هي:

1.   إدماج مبادئ السلوك التجاري المسؤول في سياسات المؤسسة وأنظمة الحوكمة الداخلية.

2.   تحديد وتقييم الآثار السلبية الفعلية أو المحتملة المرتبطة بتطوير أو استخدام أنظمة الذكاء الاصطناعي.

3.   منع الآثار السلبية أو الحد منها، أو وقف الأنشطة المسببة لها عند الاقتضاء.

4.   متابعة وتقييم فعالية الإجراءات المتخذة في إدارة المخاطر.

5.   الإفصاح والتواصل بشفافية حول كيفية معالجة المخاطر والآثار.

6.   توفير سبل الجبر أو المشاركة فيها عند وقوع ضرر فعلي.

ويتميز هذا الإطار بمرونته، حيث يُراعى حجم المؤسسة، ودورها في سلسلة قيمة الذكاء الاصطناعي، ومدى سيطرتها أو تأثيرها على المخاطر محل التقييم.

رابعاً: نطاق المخاطبين بالتقرير

لا يقتصر نطاق التقرير على مطوري أنظمة الذكاء الاصطناعي فحسب، بل يشمل:

  • موردي المدخلات (كالبيانات والبنية التحتية والتمويل)،
  • الجهات المنخرطة في تصميم وتطوير وتشغيل الأنظمة،
  • والمستخدمين النهائيين للذكاء الاصطناعي في مختلف القطاعات الاقتصادية.

وبذلك، يعتمد التقرير مقاربة (سلسلة القيمة الكاملة(، مؤكداً أن المسؤولية لا تتوقف عند مرحلة التطوير التقني، بل تمتد إلى الاستخدام والتشغيل واتخاذ القرار.

خامساً: الأهمية القانونية والعملية للتقرير

تتجلى أهمية هذا التقرير في كونه:

  • يعزز الانسجام التنظيمي الدولي في ظل تباين التشريعات الوطنية المتعلقة بالذكاء الاصطناعي.
  • يوفر مرجعاً مهماً للشركات لتقليل مخاطر المسؤولية القانونية والسمعة المؤسسية.
  • يدعم صانعي السياسات والهيئات الرقابية في تقييم ممارسات الذكاء الاصطناعي وفق معايير معترف بها دولياً.

كما يبرز التقرير العلاقة التكاملية بين الالتزامات الطوعية والمعايير القانونية الملزمة، خاصة في السياقات التي قد تتعارض فيها القوانين المحلية مع المعايير الدولية لحقوق الإنسان أو السلوك التجاري المسؤول.

خاتمة

يمثل تقرير إرشادات العناية الواجبة للذكاء الاصطناعي المسؤول خطوة متقدمة نحو إرساء حوكمة متوازنة للذكاء الاصطناعي، تجمع بين تشجيع الابتكار وحماية القيم القانونية والحقوق الأساسية. وهو بذلك يشكل أداة استراتيجية للمؤسسات التي تسعى إلى العمل في بيئة رقمية عالمية تتسم بتزايد المساءلة القانونية والتنظيمية، ويؤكد أن الذكاء الاصطناعي المسؤول لم يعد خياراً، بل ضرورة مؤسسية وقانونية.