2025/07/16

في ظل التحولات التقنية المتسارعة، يبرز الذكاء الاصطناعي التوكيلي (Agentic AI) كأحد أعمدة الثورة الرقمية الجديدة، مقدّماً نموذجًا متطورًا يتجاوز حدود الذكاء الاصطناعي التقليدي، ليشكل كيانًا رقمياً ذاتي القرار، قادرًا على التفاعل مع البيئات المتغيرة، وتحقيق الأهداف المعقدة دون تدخل بشري مستمر.

وفي هذا السياق، أصدرت الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا) دراسة متخصصة تسلط الضوء على هذا النمط المتقدم من الذكاء الاصطناعي، وتستعرض تطبيقاته المحتملة ضمن السياق الوطني، لا سيما في دعم أهداف رؤية المملكة 2030، وتعزيز السيادة التقنية.

تتناول الدراسة تعريف وكيل الذكاء الاصطناعي بوصفه نظامًا برمجيًا مزودًا بقدرات على الإدراك، التعلم، اتخاذ القرار، والتفاعل الذاتي، متجاوزًا النظم القائمة على الأوامر الثابتة. كما تبين المراحل الخمس لنضج هذا الذكاء، بدءًا من النظم القائمة على القواعد وحتى "الوكلاء القائدين" الذين يتمتعون بأقصى درجات الاستقلالية والتنظيم.

كما تشير الدراسة إلى أن الذكاء الاصطناعي التوكيلي يمتلك تطبيقات واسعة في الصحة، والتعليم، والطاقة، والصناعة، والخدمات الحكومية، حيث يتحول من مجرد أداة تنفيذ إلى شريك رقمي في اتخاذ القرار والتشغيل الفعال.

وعلى الصعيد السعودي، تستعرض الدراسة الجهود الريادية التي تقودها "سدايا"، ومن أبرزها تطوير النموذج اللغوي العربي الكبير "علام"، ودعم الشركات الوطنية الناشئة مثل "هيومين" لتوطين تقنيات الذكاء الاصطناعي، إلى جانب مشاريع المدن الذكية في "نيوم" و"البحر الأحمر".

وتحذر الدراسة – رغم التفاؤل – من تحديات مثل ضعف الشفافية، وغياب الأطر التنظيمية الكاملة، ومحدودية القدرات البشرية المؤهلة، مشيرة إلى ضرورة اعتماد حوكمة شاملة تشمل البيانات، والأخلاقيات، وتعزيز الرقابة البشرية في بيئات العمل.

وتختتم "سدايا" دراستها بتقديم خارطة طريق منهجية لتبني الذكاء الاصطناعي التوكيلي داخل المؤسسات الوطنية، تبدأ من التخطيط وتقييم الجاهزية، ثم التجريب، فالتوسع، وأخيرًا الابتكار المستمر. كما تدعو إلى الاستثمار في البنية التحتية الوطنية، وبناء الكفاءات، وتطوير حلول تدعم اللغة والثقافة العربية، بما يضمن الاستخدام الآمن والمستدام لهذه التقنية التحولية.

هل مؤسستك مستعدة لمواجهة التحديات القانونية للذكاء الاصطناعي التوكيلي؟

مع التوسع المتسارع في استخدام الوكلاء الرقميين، برزت تحديات قانونية معقدة تتعلق بالمسؤولية، والشفافية، وحوكمة القرارات الذاتية.

ندعوك لتدريب فريقك على برنامج متخصص بعنوان:

المخاطر القانونية للذكاء الاصطناعي التوكيلي وآليات الحوكمة والامتثال

استكشف خلاله الأطر التنظيمية المقترحة، والنماذج الدولية الرائدة، وأفضل الممارسات لضمان استخدام آمن ومسؤول لهذه التقنية التحولية.

للتسجيل أو طلب عرض تدريبي مخصص، تواصل معنا الآن.

احمِ مؤسستك قانونيًا... قبل أن تتخذ الآلة القرار