الذكاء الاصطناعي يعتلي منصة القضاء
تريند الخليج – متابعات
قبل بضعة أعوام، تم استدعائي للمثول أمام ثلاثة قضاة في محكمة جنوبي لندن، في ذروة كابوس بيروقراطي دام شهورا، أوقعني في إدانة جنائية لعدم تمكني من إثبات أني دفعت أجرة حافلة قيمتها 1.50 جنيه استرليني، حين نفدت بطارية هاتفي.
بعد أن سردت – بانفعال – حكايتي المعقدة عن المشكلة، وأثبت براءتي، قيل لي إن إدانتي ستسقط. قال لي رئيس المحكمة بابتسامة متعاطفة “أراهن أنك مرتاحة جدا”. كنت مرتاحة بالفعل.
لكن مثل هذا التفاعل البشري في النظام القضائي ربما يصبح أكثر ندرة. تختبر عدة دول توظيف خوارزميات قائمة على الذكاء الاصطناعي لإصدار الأحكام، واستبدال ما يسمى “الروبوتات القضاة” بالبشر “رغم عدم وجود روبوتات”.
الحجج الرئيسة المؤيدة للتقاضي القائم على الذكاء الاصطناعي تدور حول فائدتين مزعومتين: زيادة الكفاءة، وإمكانية الحد من التحيز البشري والخطأ و”الضوضاء”. يشير الأخير إلى تقلبات البشر وتغيراتهم غير المرغوب فيها بين الأحكام التي قد تتأثر بعوامل مثل مدى إرهاق القاضي أو كيفية أداء فريقه الرياضي في الليلة السابقة.
مع ذلك، هناك أسباب قوية تدعو إلى توخي الحذر. مثلا، هناك مخاوف، على عكس إزالة التحيز والتمييز، من أن الخوارزميات القائمة على الذكاء الاصطناعي – التي تستخدم قوة عمياء لمعالجة البيانات البشرية، وإيجاد الأنماط، والتصنيف، والتعميم – ستكرر تلك التحيزات وحالات التمييز الموجودة بالفعل وتعززها. وقد أظهرت بعض الدراسات أن هذا يحدث.
الحجج الأكثر شيوعا ضد التقاضي القائم على الذكاء الاصطناعي، مثل هذه، تتعلق بالنتائج. لكن في مسودة ورقة بحثية، يدعو جون تاسيولاس، مدير معهد أخلاقيات الذكاء الاصطناعي في جامعة أكسفورد، إلى إيلاء اهتمام أكثر للعملية التي يتم من خلالها التوصل إلى الأحكام.
يقتبس تاسيولاس قطعة من كتاب أفلاطون “القوانين”، الذي يصف فيه أفلاطون الفارق النوعي بين “طبيب حر”، أي الطبيب المدرب القادر على شرح العلاج لمرضاه، و”طبيب مملوك”، لا يستطيع شرح ما يفعله، وبدلا من ذلك يعالج عن طريق التجربة والخطأ. يجادل أفلاطون بأنه حتى لو أسهم كلا الطبيبين في إعادة مرضاهما إلى صحتهما، فإن نهج الطبيب الحر متفوق لأنه قادر على إبقاء المريض متعاونا وتعليمه أثناء العلاج. لذلك، المريض ليس مجرد موضوع، لكنه أيضا مشارك نشط.
مثل أفلاطون، يستخدم تاسيولاس هذا المثال ليوضح أهمية العملية في القانون. ربما نرى الطبيب المملوك في صورة خوارزمية، يمنح العلاج على أساس شيء يشبه التعلم الآلي، في حين إن الطريقة التي يعامل بها الطبيب الحر مرضاه لها قيمة في حد ذاتها. العملية التي يصل من خلالها القاضي البشري إلى قرار نهائي هي وحدها التي يمكن أن توفر ثلاث قيم جوهرية مهمة.
أولا، قابلية التفسير. يجادل تاسيولاس بأنه حتى لو كان ممكنا برمجة خوارزمية قائمة على الذكاء الاصطناعي لتقديم نوع من التفسير لقرارها، فهو ليس إلا تبريرات نتيجة فعل سابق بدلا من تبرير حقيقي، نظرا إلى أن القرار لا يتم التوصل إليه من خلال نوع عمليات التفكير التي يستخدمها الإنسان.
ثانيا، قابلية المساءلة. ولأن الخوارزمية لا تتمتع باستقلالية عقلانية، فلا يمكن مساءلتها عن أحكامها. يقول لي تاسيولاس “بصفتي عاملا مستقلا عقلانيا يمكنه اتخاذ قرارات (…)يمكن محاسبتي على هذه القرارات بطريقة لا يمكن محاسبة الآلة بها”.
ثالثا، المعاملة بالمثل – فكرة أن هناك قيمة في الحوار بين عاملين عقلانيين، هنا المتقاضي والقاضي، تحقق شعورا بالانتماء إلى المجتمع والتضامن.
هناك جانب مجرد من الإنسانية في القضاء الخوارزمي ناتج عن غياب هذه العناصر الثلاثة. تبرز قضايا أخرى أيضا، مثل المدى الذي يمكن أن يؤدي فيه توظيف القضاء القائم على الذكاء الاصطناعي إلى نقل السلطة القانونية من الهيئات العامة إلى الكيانات الخاصة التي تبني الخوارزميات.
بالنسبة إلى ريتشارد سوسكيند، المستشار التكنولوجي لرئيس القضاة في المملكة المتحدة، في حين إن هناك عديدا من الحجج الصحيحة ضد القضاء القائم على الذكاء الاصطناعي، هناك أيضا حاجة أخلاقية ملحة لجعل الوصول إلى العملية القانونية أكثر يسرا. يمكن أن تساعد الأتمتة في معالجة هذا. وفقا لمنظمة التعاون الاقتصادي والتنمية، يعيش أقل من نصف سكان العالم تحت حماية القانون، البرازيل لديها مائة مليون قضية متراكمة في المحاكم، في حين إن الهند لديها 30 مليون قضية.
أخبرني سوسكيند “أنها فجوة على نطاق رهيب. ما يحاول كثير منا (…) فعله هو الحد من الظلم الواضح، بدلا من تحقيق بعض العدالة المجردة الكاملة”.
كما يقول القول المأثور، “يجب ألا ندع الكمال عدوا للخير”. ربما تكون عبارة “الكمبيوتر يقول لا” – الشائعة من البرنامج التلفزيوني الكوميدي “ليتل بريتين” – شكلا لعدالة ناقصة جدا، وفي أغلب الأحيان محبطة، لكن وجود نظام قضائي غير مثالي هو بالتأكيد أفضل من عدم وجوده مطلقا.