صدر هذا الدليل عن وزارة الصناعة والعلوم الأسترالية – الوكالة الوطنية للذكاء الاصطناعي (NAIC) في أكتوبر 2025، بوصفه دليلًا رسميًا ونموذجًا استرشاديًا لصياغة سياسات الذكاء الاصطناعي داخل المؤسسات. يضع الدليل إطارًا مفاهيميًا وعمليًا لحوكمة الذكاء الاصطناعي، ويُبرز اتساقه مع إرشادات الحكومة لاعتماد الذكاء الاصطناعي، بما يرسخ الاستخدام المسؤول والمتسق لهذه التقنيات عبر مختلف الجهات.
أولًا: الغرض من السياسة
يهدف هذا الدليل إلى ترسيخ مبادئ الاستخدام الأخلاقي والمسؤول لأنظمة الذكاء الاصطناعي بما يضمن الاتساق مع رسالة المؤسسة وقيمها. وتشمل الغايات المركزية: حماية حقوق أصحاب المصلحة، دعم تحسين الخدمات وتحقيق الأهداف الاستراتيجية، تعزيز الشفافية للحفاظ على الثقة العامة، وضع إطار واضح لإدارة مخاطر الذكاء الاصطناعي، وتمكين العاملين.
ثانيًا: نطاق التطبيق
تسري السياسة على جميع الموظفين والمتطوعين والمتعاقدين وأعضاء مجالس الإدارة المساهمين في تطوير أو اعتماد أو إدارة أو استخدام أنظمة الذكاء الاصطناعي. ويُعرف نظام الذكاء الاصطناعي بأنه أي تقنية تستخدم البيانات لاستنتاجات وتوليد مخرجات، مثل التنبؤات أو التوصيات أو القرارات، بدرجة من الاستقلالية؛ بما يشمل نماذج التعلم الآلي، أدوات الذكاء التوليدي، أنظمة التحليل التنبؤي، والمحادثات الآلية، مع استبعاد الصيغ الجدولية التقليدية، والأتمتة القاعدية البسيطة، ولوحات ذكاء الأعمال التقليدية.
ثالثًا: المبادئ والسياسات العامة
يرسي الدليل مجموعة مبادئ حاكمة لاستخدام الذكاء الاصطناعي، أبرزها:
1. الاستخدام الأخلاقي المتمركز حول الإنسان واحترام الكرامة، ومنع الخداع أو التلاعب.
2. المساءلة الواضحة بتعيين شخص مسؤول لكل نظام عبر دورة حياته وسلسلة التوريد.
3. تقييم المخاطر والأثر قبل الاستخدام مع مواءمة الضوابط مع مستوى المخاطر وإشراك المعنيين.
4. الجودة والموثوقية والأمن باختبارات دقيقة قبل النشر ورقابة لاحقة مستمرة، مع ضوابط الخصوصية والأمن للبيانات الحسّاسة.
5. العدالة والشمول وتجنب التمييز ودعم إتاحة الوصول.
6. الشفافية وقابلية الاعتراض عبر الإحاطة المناسبة وتوثيق الأنظمة في سجل داخلي وإتاحة المعلومات ذات الأثر الجوهري.
الرقابة البشرية مع إمكان الإيقاف أو التعطيل وتوفّر بدائل يدوية للخدمات الحرجة.
رابعًا: الحوكمة والامتثال
يتبنى الدليل هيكل حوكمة يوزع الأدوار بوضوح، ومن ذلك:
· مالك سياسة الذكاء الاصطناعي بصفته صاحب الاختصاص العام والراعي للسياسة،
· الجهة المعتمدة (مثل المدير التنفيذي/مجلس الإدارة) للموافقة الرسمية والتعديلات،
· مراقب الامتثال للتدقيق والمتابعة،
· لجنة حوكمة الذكاء الاصطناعي للاستشارة والاعتماد في الحالات عالية المخاطر،
· مالك النظام المسؤول عن الالتزام عبر دورة الحياة.
كما تلتزم جميع الكوادر بالتقيد بالمبادئ والإبلاغ عن الحوادث.
خامسًا: إجراءات الحالات الجديدة وإدارة الحوادث
يوجه الدليل إلى اعتماد إجراءات واضحة لفرز الحالات الجديدة وتصنيفها (عادية/مرتفعة/محظورة) وتحديد متطلبات التقييم والموافقة والرقابة تبعًا لمستوى المخاطر. كما يؤكد إدراج إجراءات لإدارة الحوادث ضمن إطار الحوكمة المؤسسي، مع النص على تضمين الدليل على إجراءات الحالات الجديدة وإدارة الحوادث في قسم الحوكمة والامتثال.
سادسًا: مراجعة السياسة
يتضمن الدليل قسمًا لمراجعة السياسة بشكلٍ دوري للحفاظ على ملاءمتها وفعاليتها مع تطورات التقنية والمعايير، مع إمكانية تحفيز المراجعة عند المستجدات الجوهرية.
سابعًا: الملاحق والمراجع
يضم الدليل ملاحق داعمة غير ملزمة قانونيًا تيسر فهم السياق، مثل: نموذج سجل أنظمة الذكاء الاصطناعي، أداة الفحص الأولي، مبادئ أخلاقيات الذكاء الاصطناعي الأسترالية، المعيار الطوعي لسلامة الذكاء الاصطناعي، وقاموس المصطلحات والتعاريف







