تعد مبادئ منظمة التعاون والتنمية الاقتصادية (OECD) بشأن الذكاء الاصطناعي أول معيار حكومي دولي في هذا المجال، وقد تم اعتمادها لأول مرة في عام 2019، ثم جرى تحديثها في مايو 2024 لمواكبة المستجدات التقنية والتنظيمية، وذلك بهدف ضمان استمرار فعاليتها وملاءمتها للغرض المنشود.
تهدف هذه المبادئ إلى توجيه الجهات الفاعلة في مجال الذكاء الاصطناعي نحو تطوير أنظمة ذكاء اصطناعي موثوقة، كما توفر لصناع السياسات توصيات لإرساء سياسات فعالة في هذا المجال. وتستعين الدول بهذه المبادئ والأدوات المرتبطة بها لصياغة السياسات ووضع أطر لإدارة مخاطر الذكاء الاصطناعي، مما يسهم في إرساء قاعدة للتوافق والتكامل العالمي بين مختلف النظم القانونية.
وتعتمد حالياً كل من الاتحاد الأوروبي، ومجلس أوروبا، والولايات المتحدة، ومنظمة الأمم المتحدة، وعدد من السلطات القضائية الأخرى، تعريف منظمة التعاون والتنمية الاقتصادية لنظام الذكاء الاصطناعي ودورة حياته، وذلك ضمن أطرها التشريعية والتنظيمية والإرشادية. وتشكل هذه المبادئ، إلى جانب التعريف ودورة الحياة، جزءاً لا يتجزأ من التوصية الصادرة عن منظمة التعاون والتنمية الاقتصادية بشأن الذكاء الاصطناعي.
وجدير بالذكر أن عدد الدول والجهات الملتزمة بهذه المبادئ يبلغ حالياً 47 جهة.
مصطلحات ومفاهيم الذكاء الاصطناعي
يُعرّف نظام الذكاء الاصطناعي بأنه نظام قائم على الآلات، يُصمَّم لتحقيق أهداف صريحة أو ضمنية، ويستنتج – استناداً إلى البيانات المدخلة إليه – كيفية إنتاج مخرجات مثل التنبؤات أو المحتوى أو التوصيات أو القرارات، والتي من شأنها التأثير في البيئات المادية أو الافتراضية.
وتختلف أنظمة الذكاء الاصطناعي من حيث مستويات الاستقلالية والقدرة على التكيّف بعد مرحلة النشر أو التشغيل.
مراحل دورة حياة نظام الذكاء الاصطناعي
تشمل دورة حياة نظام الذكاء الاصطناعي أربع مراحل رئيسية:
1. مرحلة التصميم، والبيانات، والنماذج: وهي سلسلة من الإجراءات تعتمد على السياق، وتتضمن التخطيط والتصميم، وجمع البيانات ومعالجتها، وبناء النماذج.
2. مرحلة التحقق والتصديق: وتُعنى بمراجعة مدى دقة النظام وسلامته وامتثاله للمعايير المحددة.
3. مرحلة النشر: وتتمثل في إدخال النظام حيز الاستخدام العملي.
4. مرحلة التشغيل والمراقبة: وتشمل تشغيل النظام ورصده بشكل مستمر لتقييم أدائه واكتشاف أية مشكلات أو مخاطر محتملة.
تجدر الإشارة إلى أن هذه المراحل لا تجري بالضرورة وفق تسلسل خطي، بل غالباً ما تُنفذ بصورة تكرارية. كما يمكن اتخاذ قرار إيقاف تشغيل نظام الذكاء الاصطناعي وإنهاء استخدامه في أي وقت خلال مرحلة التشغيل والمراقبة.
المبادئ القائمة على القيم
النمو الشامل، والتنمية المستدامة، والرفاه (المبدأ 1.1):
ينبغي لأصحاب المصلحة أن يضطلعوا، بصورة استباقية ومسؤولة، بدور قيادي في توجيه الذكاء الاصطناعي الموثوق لتحقيق نتائج مفيدة للبشر والعالم. ويشمل ذلك تعزيز القدرات البشرية، وتحفيز الإبداع، وتوسيع نطاق إدماج الفئات المهمشة أو غير الممثلة تمثيلاً كافياً، والحد من أوجه عدم المساواة الاقتصادية والاجتماعية والنوعية وغيرها، وحماية البيئة الطبيعية، بما يعزز النمو الشامل والرفاه والتنمية المستدامة والاستدامة البيئية.
احترام سيادة القانون وحقوق الإنسان والقيم الديمقراطية، بما في ذلك الإنصاف والخصوصية (المبدأ 1.2):
يتعين على الجهات الفاعلة في مجال الذكاء الاصطناعي احترام سيادة القانون، وحقوق الإنسان، والقيم الديمقراطية والمرتكزة على الإنسان، وذلك خلال جميع مراحل دورة حياة نظام الذكاء الاصطناعي. وتشمل هذه القيم مبادئ عدم التمييز والمساواة، والحرية، والكرامة، واستقلالية الأفراد، وحماية الخصوصية والبيانات، والتنوع، والعدالة، والإنصاف، والعدالة الاجتماعية، وحقوق العمل المعترف بها دولياً. كما يشمل هذا المبدأ ضرورة التصدي للمعلومات المضللة والخاطئة التي يسهم الذكاء الاصطناعي في تضخيمها، مع احترام حرية التعبير وغيرها من الحقوق والحريات المكفولة بموجب القانون الدولي الساري.
ولهذا الغرض، ينبغي على الجهات المعنية تنفيذ آليات وضمانات فعالة، من بينها تمكين التدخل والإشراف البشري، لمواجهة المخاطر الناشئة عن استخدامات تتجاوز الغرض الأصلي للنظام، أو إساءة استخدامه سواء كانت مقصودة أو غير مقصودة، وذلك بما يتناسب مع السياق وبما يتماشى مع أحدث ما توصلت إليه التكنولوجيا.
الشفافية وقابلية التفسير (المبدأ 1.3):
يتعين على الجهات الفاعلة في مجال الذكاء الاصطناعي الالتزام بالشفافية والإفصاح المسؤول بشأن أنظمة الذكاء الاصطناعي. ولهذا الغرض، ينبغي لها تقديم معلومات ذات مغزى، تتناسب مع السياق، وتتماشى مع أحدث ما توصلت إليه التكنولوجيا، بما يشمل ما يلي:
- تعزيز الفهم العام لأنظمة الذكاء الاصطناعي، بما في ذلك قدراتها وحدودها؛
- إبلاغ أصحاب المصلحة بتفاعلهم مع أنظمة الذكاء الاصطناعي، بما في ذلك في بيئة العمل؛
- حيثما كان ذلك ممكنًا ومفيدًا، تقديم معلومات مبسطة وسهلة الفهم بشأن مصادر البيانات أو المدخلات، والعوامل، والعمليات، والمنطق الذي أدى إلى إصدار التنبؤ، أو المحتوى، أو التوصية، أو القرار، بما يتيح للمستخدمين والمتأثرين بالنظام فهم مخرجاته؛
- توفير المعلومات التي تُمكن الأفراد المتأثرين سلبًا من مخرجات نظام الذكاء الاصطناعي من الاعتراض على تلك المخرجات وطلب مراجعتها.
المتانة، والأمن، والسلامة (المبدأ 1.4):
- يجب أن تكون أنظمة الذكاء الاصطناعي متينة وآمنة وسليمة طوال دورة حياتها التشغيلية، بحيث تؤدي وظائفها بشكل مناسب في ظروف الاستخدام العادية، أو المتوقعة، أو في حالات إساءة الاستخدام، أو غيرها من الظروف المعاكسة، دون أن تفرض مخاطر غير معقولة تتعلق بالسلامة أو الأمن.
- ينبغي توفير آليات مناسبة تتيح إمكانية تعطيل النظام، أو إصلاحه، أو إخراجه من الخدمة بأمان عند ظهور سلوك غير مرغوب فيه أو خطر التسبب بضرر مفرط.
- كما يجب، متى كان ذلك ممكنًا من الناحية الفنية، اعتماد آليات تعزز من نزاهة المعلومات مع احترام حرية التعبير.
المساءلة (المبدأ 1.5):
يتحمل الفاعلون في مجال الذكاء الاصطناعي المسؤولية عن حسن تشغيل أنظمة الذكاء الاصطناعي، وعن احترام المبادئ المذكورة أعلاه، وذلك وفقًا لأدوارهم، وسياق استخدام النظام، ومعايير التكنولوجيا السائدة.
وفي هذا الإطار، يتوجب عليهم ضمان إمكانية التتبع، بما يشمل مجموعات البيانات، والعمليات، والقرارات المتخذة خلال دورة حياة النظام، بما يتيح تحليل مخرجات النظام والرد على الاستفسارات بشأنها، بما يتناسب مع السياق ويتوافق مع أفضل الممارسات الفنية.
كما يجب على هؤلاء الفاعلين، بحسب أدوارهم وسياق عملهم وقدرتهم على التصرف، تطبيق نهج منهجي لإدارة المخاطر في جميع مراحل دورة حياة النظام، والالتزام بممارسات تجارية مسؤولة لمعالجة المخاطر المرتبطة بأنظمة الذكاء الاصطناعي، بما في ذلك، عند الاقتضاء، التعاون بين مختلف الفاعلين، وموردي المعرفة والموارد، ومستخدمي الأنظمة، وغيرهم من أصحاب المصلحة. وتشمل هذه المخاطر، على سبيل المثال لا الحصر، التحيز الضار، والانتهاكات المحتملة لحقوق الإنسان، بما فيها السلامة، والأمن، والخصوصية، وكذلك حقوق العمل والملكية الفكرية.
توصيات لصانعي السياسات
الاستثمار في البحث والتطوير في مجال الذكاء الاصطناعي (المبدأ 2.1):
ينبغي للحكومات أن تأخذ بعين الاعتبار الاستثمار العام طويل الأجل، وتشجيع الاستثمار الخاص، في مجالات البحث والتطوير والعلوم المفتوحة، بما في ذلك المبادرات متعددة التخصصات، من أجل تعزيز الابتكار في الذكاء الاصطناعي الموثوق، مع التركيز على التحديات التقنية المعقدة، والآثار الاجتماعية والقانونية والأخلاقية ذات الصلة، والقضايا التنظيمية المرتبطة بها.
كما يستحسن أن تنظر الحكومات في الاستثمار العام، وتشجيع الاستثمار الخاص، في أدوات المصدر المفتوح ومجموعات البيانات المفتوحة التي تمثل فئات المجتمع تمثيلاً عادلاً، وتحترم الخصوصية وحماية البيانات، وذلك لدعم بيئة بحث وتطوير خالية من التحيز الضار، وتحسين قابلية التشغيل البيني، وتعزيز استخدام المعايير الفنية.
تعزيز بيئة شاملة ممكنة للذكاء الاصطناعي (المبدأ 2.2):
ينبغي على الحكومات العمل على تطوير بيئة رقمية شاملة، ديناميكية، مستدامة، وقابلة للتشغيل البيني، تدعم الذكاء الاصطناعي الموثوق. وتشمل هذه البيئة، من بين أمور أخرى، البيانات، وتكنولوجيات الذكاء الاصطناعي، والبنية التحتية الحاسوبية، وآليات مشاركة المعرفة في مجال الذكاء الاصطناعي، حسب الاقتضاء.
وفي هذا الإطار، يُستحسن أن تنظر الحكومات في ترويج آليات مثل (الصناديق الاستئمانية للبيانات)(Data Trusts)، لدعم تبادل البيانات بصورة آمنة ومنصفة وقانونية وأخلاقية.
تهيئة بيئة تنظيمية مرنة وقابلة للتشغيل البيني (المبدأ 2.3):
- ينبغي للحكومات تعزيز بيئة تنظيمية مرنة تدعم الانتقال من مرحلة البحث والتطوير إلى مراحل النشر والتشغيل لأنظمة الذكاء الاصطناعي الموثوقة. ولهذا الغرض، يمكن النظر في استخدام بيئات تجريبية منظمة (regulatory sandboxes) تتيح اختبار أنظمة الذكاء الاصطناعي وتوسيع نطاقها حسب الحاجة.
- كما يستحسن اعتماد نُهج قائمة على النتائج، توفر مرونة في تحقيق أهداف الحوكمة، إلى جانب تعزيز التعاون داخل النطاق القضائي الواحد وعبر مختلف النطاقات القضائية، بما يسهم في إنشاء بيئات حوكمة وسياسات قابلة للتشغيل البيني.
- ويجدر بالحكومات كذلك مراجعة أطرها التنظيمية وآليات التقييم ذات الصلة بأنظمة الذكاء الاصطناعي وتحديثها، عند الاقتضاء، بما يُشجع الابتكار والمنافسة في مجال الذكاء الاصطناعي الموثوق.
تنمية القدرات البشرية والاستعداد لتحولات سوق العمل (المبدأ 2.4):
- ينبغي للحكومات أن تعمل بشكل وثيق مع أصحاب المصلحة للاستعداد للتحولات التي يشهدها عالم العمل والمجتمع عموماً، وتمكين الأفراد من التفاعل الفعال مع أنظمة الذكاء الاصطناعي واستخدامها في مختلف المجالات، من خلال تزويدهم بالمهارات اللازمة لذلك.
- يتعين على الحكومات اتخاذ التدابير الكفيلة بضمان انتقال عادل للعاملين في ظل توسع استخدام الذكاء الاصطناعي، بما في ذلك عبر الحوار الاجتماعي، وتوفير برامج التدريب والتأهيل المهني المستمرة طوال الحياة العملية، ودعم الأشخاص المتأثرين بفقدان وظائفهم، من خلال الحماية الاجتماعية وتيسير الوصول إلى فرص جديدة في سوق العمل.
- كما ينبغي أن تتعاون الحكومات مع أصحاب المصلحة لتعزيز الاستخدام المسؤول للذكاء الاصطناعي في بيئة العمل، بما يحقق سلامة العاملين، ويحسن جودة الوظائف والخدمات العامة، ويدعم ريادة الأعمال والإنتاجية، ويضمن توزيع فوائد الذكاء الاصطناعي بشكل عادل وشامل.
التعاون الدولي من أجل ذكاء اصطناعي موثوق (المبدأ 2.5):
- يجب على الحكومات، بما في ذلك حكومات الدول النامية وبالتعاون مع أصحاب المصلحة، أن تنخرط بنشاط في التعاون الدولي لتعزيز هذه المبادئ، والمضي قدماً نحو إدارة مسؤولة للذكاء الاصطناعي الموثوق.
- ينبغي أن تتعاون الحكومات ضمن منظمة التعاون والتنمية الاقتصادية (OECD) وغيرها من المحافل الإقليمية والدولية، لتعزيز تبادل المعرفة في مجال الذكاء الاصطناعي، كلٌّ بحسب السياق. كما ينبغي دعم المبادرات متعددة الأطراف، المفتوحة وعبر القطاعات، التي تجمع مختلف أصحاب المصلحة، لبناء خبرات طويلة الأجل في هذا المجال.
- يتعين على الحكومات الترويج لتطوير معايير تقنية عالمية قائمة على التوافق، متعددة الأطراف، تضمن التشغيل البيني والمصداقية لأنظمة الذكاء الاصطناعي.
- كما يُستحسن أن تشجع الحكومات على تطوير واعتماد مؤشرات قابلة للمقارنة دوليًا، لقياس أنشطة البحث والتطوير والنشر في مجال الذكاء الاصطناعي، وبناء قاعدة معرفية مبنية على الأدلة لقياس مدى التقدم في تنفيذ هذه المبادئ.