2025/03/24

يشهد المجال القانوني تطورًا متسارعًا مع تقدم الذكاء الاصطناعي (AI)، حيث تتزايد تطبيقات الذكاء الاصطناعي في مجالات التنبؤ بنتائج القضايا، وتحليل العقود، وكشف الاحتيال المالي، بل وحتى إصدار الأحكام القضائية. في هذا السياق، تطرح دراسة (Judge AI: Assessing Large Language Models in Judicial Decision-Making)  التي أعدها إيريك أ. بوسنر وشيفام ساران في جامعة شيكاغو، معهد Coase-Sandor للقانون والاقتصاد في يناير 2025، سؤالًا جوهريًا: هل يمكن للنماذج اللغوية الكبيرة (LLMs) مثل GPT-4o أن تحل محل القضاة البشريين؟

أجريت الدراسة عبر تجربة علمية قارنت بين أداء الذكاء الاصطناعي في إصدار أحكام قضائية وبين أحكام قضاة اتحاديين أمريكيين، استنادًا إلى قضية استئناف في محكمة جرائم الحرب الدولية. وقد أظهرت النتائج أن الذكاء الاصطناعي يلتزم بالسوابق القضائية أكثر من القضاة، لكنه يفتقر إلى التأثر بعوامل إنسانية مثل التعاطف، مما يثير تساؤلات حول مدى ملاءمته ليكون بديلًا للقضاة البشريين.

منهجية الدراسة

تعتمد الدراسة على إعادة تنفيذ تجربة سابقة أجريت على 31 قاضيًا اتحاديًا أمريكيًا، حيث طُلب من القضاة إصدار حكم في قضية استئناف تتعلق بجرائم حرب. ثم تم تكرار نفس التجربة باستخدام نموذج الذكاء الاصطناعي GPT-4o، وتم قياس مدى تطابق أحكامه مع أحكام القضاة.

العوامل التي تم اختبارها:

  1. مدى تأثير السوابق القضائية: هل يلتزم القضاة والذكاء الاصطناعي بالأحكام السابقة؟
  2. مدى تأثر الحكم بتعاطف القاضي مع المتهم: هل يميل القضاة إلى التساهل مع المتهمين الذين يظهرون الندم أو الذين يبدون أكثر استحقاقًا للتعاطف؟

وقد عُدلت بعض العوامل في القضية الأصلية لإنشاء 4 حالات مختلفة:

  • متهم مثير للتعاطف + سابقة قانونية تؤيد الإدانة
  • متهم مثير للتعاطف + سابقة قانونية تؤيد البراءة
  • متهم غير مثير للتعاطف + سابقة قانونية تؤيد الإدانة
  • متهم غير مثير للتعاطف + سابقة قانونية تؤيد البراءة

النتائج والتفسير

1.   تأثير السوابق القضائية

أظهرت الدراسة أن نموذج الذكاء الاصطناعي كان أكثر التزامًا بالسوابق القضائية مقارنة بالقضاة. فعندما كانت السوابق تؤيد الإدانة، كان الذكاء الاصطناعي يدين المتهم بنسبة كبيرة، وعندما كانت السوابق تؤيد البراءة، كان يصدر حكماً بالبراءة.

في المقابل، أظهر القضاة ميلًا أقل للالتزام بالسوابق القضائية، إذ كانوا أكثر ميلًا إلى تجاهلها في بعض الحالات وإصدار أحكام بناءً على عوامل أخرى مثل تعاطفهم مع المتهم.

2.   تأثير العوامل العاطفية

بينما تأثر القضاة بمشاعر التعاطف، لم يُظهر الذكاء الاصطناعي أي استجابة للعوامل العاطفية. فعندما كان المتهم شخصية مثيرة للتعاطف، كان القضاة أكثر ميلًا لتخفيف الحكم أو تبرئته، حتى وإن لم يكن لهذا التعاطف أي سند قانوني. أما الذكاء الاصطناعي، فبقي على نفس المستوى من الحيادية دون أن يتأثر بأي عامل خارج عن الإطار القانوني.

3.   الاختلافات في طريقة اتخاذ القرار

  • اتبع الذكاء الاصطناعي نهجًا (شكليًا) قائمًا على النصوص القانونية فقط، مما جعله أشبه بالطلاب في الدراسات السابقة وليس بالقضاة ذوي الخبرة.
  • القضاة كانوا أكثر تأثرًا بالمشاعر، ما جعلهم أقرب إلى المدرسة القانونية الواقعية (Legal Realism) التي ترى أن القضاة يتأثرون بعوامل اجتماعية ونفسية وليس فقط بالنصوص القانونية المجردة.

التداعيات القانونية والأخلاقية

1.   هل الذكاء الاصطناعي قاضٍ أفضل؟

إذا كان الهدف هو ضمان تطبيق القانون بشكل صارم ومتسق، فقد يكون الذكاء الاصطناعي متفوقًا على القضاة في هذا الصدد، نظرًا لعدم تحيزه وعدم تأثره بالعوامل العاطفية أو الأيديولوجية.

ولكن في المقابل، قد تكون حيادية الذكاء الاصطناعي مفرطة لدرجة أنه قد يفشل في مراعاة الظروف الإنسانية والعدالة الاجتماعية، مما يجعله غير مناسب لبعض القضايا التي تتطلب تفكيرًا أخلاقيًا يتجاوز النصوص القانونية المجردة.

2.   مخاطر الاعتماد على الذكاء الاصطناعي في القضاء

  • غياب التفسير البشري: يصعب تتبع كيفية وصول الذكاء الاصطناعي إلى أحكامه بسبب طبيعة (الصندوق الأسود (Black Box  في نماذج الذكاء الاصطناعي.
  • احتمالية التحيز الخوارزمي: قد تعكس أحكام الذكاء الاصطناعي تحيزات مدمجة في بيانات التدريب.
  • قضايا المسؤولية القانونية: في حالة وقوع خطأ، من سيكون المسؤول؟ الشركة المطورة للنموذج أم القاضي الذي اعتمد عليه؟

محاولات تعديل سلوك الذكاء الاصطناعي

حاول الباحثون تعديل طريقة اتخاذ القرار لدى الذكاء الاصطناعي عبر تقنيات هندسة الأوامر (Prompt Engineering)، مثل:

  1. تعليمه أن يأخذ التعاطف في الاعتبار: لكنه رفض ذلك وظل يتجاهل العوامل العاطفية.
  2. إخضاعه لنظريات قضائية مختلفة مثل الواقعية القانونية :(Legal Realism) لكنه استمر في اتباع نفس النهج الرسمي الشكلي.
  3. إخباره أنه يحاكي قضاة حقيقيين: لم يغير ذلك من نتائجه.

تشير هذه النتائج إلى أن الذكاء الاصطناعي لا يمكن ببساطة (برمجته) ليحاكي التفكير البشري بالكامل، لأن بنيته مبنية على تحليل النصوص فقط، وليس على الفهم الإنساني المعقد للعدالة.

هل سيحل الذكاء الاصطناعي محل القضاة؟

تُظهر هذه الدراسة أن الذكاء الاصطناعي قادر على تقديم أحكام قضائية متماسكة من الناحية القانونية، لكنه لا يزال بعيدًا عن استبدال القضاة البشريين، نظرًا لافتقاره إلى القدرة على مراعاة العوامل الإنسانية والاجتماعية التي تؤثر في عملية إصدار الأحكام.

التوصيات المستقبلية:

  • دمج الذكاء الاصطناعي كمساعد قضائي وليس كبديل للقضاة، بحيث يقدم تحليلًا قانونيًا سريعًا ويساعد في البحث، ولكن دون أن يكون صاحب الحكم النهائي.
  • الاستمرار في دراسة تأثير الذكاء الاصطناعي في القضاء؛ لضمان عدم توليد تحيزات خوارزمية غير مقصودة.
  • تطوير أنظمة ذكاء اصطناعي أكثر شفافية، بحيث يمكن تتبع منطق قراراتها وفهم كيفية توصلها إلى استنتاجاتها.

ختامًا، بينما يمثل الذكاء الاصطناعي ثورة في المجال القانوني، لا يزال الطريق طويلًا أمامه ليصبح بديلًا كاملًا للقضاة البشريين.