حساب جديد ادعمنا

العدالة التنبؤية - Predictive Justice

العدالة التنبؤية هي تقنية الذكاء الاصطناعي القائمة على الخوارزميات المرتبطة بالأدوات الرياضية التي تحلل مجموعات كبيرة من قرارات المحاكم من أجل تقييم فرص الفوز في محاكمة وتقدير أنواع معينة من الدعاوى القضائية المتخصصة بمبلغ التعويض.

بدأت الفكرة  في عام 1977 مع عالم التكنولوجيا والحقوقي المتخصص في تاريخ القوانين جاك الو - Jacques Ellul في كتابه التكنيك (الفني) - Le technician حيث استوحى هذا التقني والحقوقي في الوقت عينه نظرية "ارتباط العدالة بالتكنولوجيا" من التطور التكنولوجي الذي تجلى في بداية السبعينات خاصة في مجال المعلوماتية.

وقد أثر التحول الرقمي للمجتمع بشكل كبير على تطور العدالة التنبؤية. ويبدو أنَّ بعض البلدان قد طورت بالفعل تفكيراً متعمقاً فيها مع تطبيقات عملية ملموسة. لا شك أن الذكاء الاصطناعي هو الذي يغذي معظم المخاطر والمخاوف في مجال العدالة التنبؤية. ففي الولايات المتحدة الأمريكية، تم بالفعل إنشاء "محامين آليين" في مكاتب المحاماة والتقنيين القانونيين، وهي شركات ناشئة متخصصة في تصميم هذه الخدمات القانونية عبر الإنترنت، وتقدم أدوات عمل جديدة لمتخصصي العدالة. إلا أنَّه في الوقت الحالي، لم يكن من الممكن إجراء تجارب مكثفة على العدالة التنبؤية، لا سيما أن تطوير هذه الأدوات يأتي إلى حد كبير من القطاع الخاص. ومع ذلك، بدأت السلطات العامة تهتم بهذه القضية.

لا تزال العدالة التنبؤية موضوعاً حساساً، فهي تحرز تقدماً مفيداً لجودة وكفاءة العدالة، ولكن التقدم الذي يجب أن يتم تأطيره بدقة، يقابله مخاطر لا يستهان بها الأمر الذي يطرح التساؤل عن مسألة صياغة تقدم هذه التقنية والمخاطر التي تمثلها. بالمقابل، سنستعرض المقترحات التنظيمية التي ظهرت في السنوات الأخيرة، على المستوى الأوروبي  لمحاولة تقنين استخدام أدوات وخدمات العدالة التنبؤية بهدف الحد من هذه المخاطر.

أولا- مخاطر العدالة التنبؤية: 

فيما يتعلق بالبيانات المفتوحة لقرارات المحاكم، تميل حركة تحرير البيانات هذه إلى محو أي تمييز بين المستويات المختلفة للمحاكم والطعن في التسلسل الهرمي الموجود بين المحاكم. إلا أن أحكام المحاكم العليا مهمة للغاية على وجه التحديد لأنها تساهم بوضع القواعد القانونية المبدئية.

علاوة على ذلك، إن إمكانية التنبؤ هذه يجب ألا تساهم في تجميد السوابق القضائية. فإن التحليل الآلي لكتل ​​كبيرة من قرارات المحاكم من أجل تحديد معايير الحكم يمكن أن يساعد في الواقع على بلورة السوابق القضائية مما يُنتج خللا لأنه بدلاً من سن قانون جديد، سوف نبني على قرارات المحكمة السابقة، التي ستكون بمثابة استخدام قاعدة السوابق كما هو الحال في دول القانون العام.

بالإضافة إلى ذلك، قد تسبب خطر فقدان حرية التقدير والاستقلالية القضائية، فالقاضي قد يميل لاعتماد قرارات سابقة ويصدر أحكام  في غير محلها.

بالإضافة إلى مخاطر التركيز على الأداء الكمي للسلطة القضائية على حساب أدائها النوعي، هناك أيضًا خطر الفشل التقني غير المنضبط لنظام تكنولوجيا المعلومات. في الواقع، برامج الكمبيوتر ليست مضمونة ويمكن أن تسبب خسائر كبيرة في حالة وجود خلل في النظام.

ثانيا- المقترحات التنظيمية للمفوضية الأوروبية لفعالية العدالة - CEPEJ للحد من هذه المخاطر

تبنت المفوضية الأوروبية لفعالية العدالة - CEPEJ في عام 2018 "الميثاق الأخلاقي الأوروبي لاستخدام الذكاء الاصطناعي في الأنظمة القضائية وبيئتها". هدف الميثاق هو الحد من مخاطر العدالة التنبؤية ومحاولة تقنينها.

هذا الميثاق الأخلاقي موجه إلى:

• جميع أصحاب المصلحة، المسؤولين عن تصميم واستخدام أدوات وخدمات الذكاء الاصطناعي على أساس المعالجة الآلية للبيانات القضائية.

• إلى السلطات العامة المسؤولة عن الإطار التشريعي أو التنظيمي لتطوير واستخدام هذه الأدوات والخدمات.

وفقًا للمفوضية الأوروبية لفعالية العدالة - CEPEJ، إن استخدام أدوات وخدمات الذكاء الاصطناعي تهدف إلى تحسين كفاءة وجودة العدالة، وهي مبادرة تستحق العدالة. لكن مع الحرص دائماً على احترام الحقوق الأساسية لكل فرد والمنصوص عليها في اتفاقية حقوق الإنسان واتفاقية حماية البيانات الشخصية.

وبالتالي، يرغب ميثاق الأخلاقيات في توجيه سياسات العدالة العامة في هذا المجال. لذلك فهو يحدد خمسة مبادئ رئيسية:

1. مبدأ احترام الحقوق الأساسية

2. مبدأ عدم التمييز

3. مبدأ الجودة والسلامة

4. مبدأ الشفافية والحياد والنزاهة الفكرية

5. مبدأ تحكم المستخدم

حول مبدأ احترام الحقوق الأساسية: يجب ألا تحول أدوات الذكاء الاصطناعي دون وصول القاضي إلى محاكمة عادلة، بعبارة أخرى يجب استخدامها وفقًا لمبدأ المساواة. كما يجب استخدامها وفقًا لمبدأ استقلالية القضاة في اتخاذ قراراتهم.

مبدأ عدم التمييز: من المرجح أن تؤدي أدوات أو خدمات العدالة التنبؤية إلى خلق أو تعزيز التمييز بين الأفراد أو مجموعات من الأفراد. هذا هو السبب في أن المفوضية الأوروبية لفعالية العدالة - CEPEJ تدعو المصممين إلى أن يكونوا أكثر يقظة ورفع مستوى الوعي، خلال مرحلة التطوير وأثناء مرحلة الاستخدام، خاصة عندما تستند هذه الأدوات أو الخدمات إلى ما يسمى بالبيانات الحساسة، مثل الأصول العرقية أو الأصولية، والظروف الاجتماعية الاقتصادية والآراء السياسية، إلخ.

مبدأ الجودة والأمن: يجب أن يكون لدى مصممي البرمجيات أو الخوارزميات التنبؤية إمكانية اللجوء إلى خبرة المتخصصين في العدالة (القضاة والمحامين وما إلى ذلك) ، من خبرة الباحثين والمعلمين في القانون والعلوم الاجتماعية.

بالإضافة إلى ذلك، يجب التحقق من مصادر البيانات المدمجة في البرنامج وذلك لضمان عدم حدوث أي مشكلة في تغيير المحتوى أو معنى القرار قيد المعالجة. ولذلك يجب ضمان صدقية وسلامة الأنظمة التي يتم تخزين وتنفيذ الخوارزميات عليها.

 مبدأ الشفافية والحياد والنزاهة الفكرية: تصر المفوضية الأوروبية لفعالية العدالة على التوازن الضروري الذي يجب إيجاده بين حقوق الملكية الفكرية التي تنتمي إلى مصممي أنظمة معينة ومتطلبات الشفافية والحياد والولاء و النزاهة الفكرية. وبالتالي فإن المفوضية الأوروبية لفعالية العدالة يدعو إلى الشفافية الكاملة، مع إمكانية حماية الأسرار الصناعية كحد أقصى.

 مبدأ إتقان المستخدم: يجب أن يكون المستخدم مستقلاً في استخدامه لأدوات وخدمات الذكاء الاصطناعي، سواء كانوا متخصصين في العدالة أو متقاضين.

• فيما يتعلق بالقاضي ، يجب أن يكون قادراً على الانحراف عن نتيجة الخوارزمية أو الحفاظ على السيطرة والقدرة على تحليلها.

• فيما يتعلق بالخصوم، يجب إعلام الأخير بلغة واضحة ويمكن الوصول إليها من الطبيعة الملزمة أو من الحلول التي تقدمها له أدوات الذكاء الاصطناعي، والخيارات المتاحة له وحقه في المساعدة القانونية والإحالة إلى المحكمة. في جميع الحالات، يجب إبلاغ المتقاضي بوضوح بأي لجوء إلى العدالة التنبؤية في قضية تتعلق به ويكون قادراً على معارضته من أجل الاستماع إليه مباشرة من قبل المحكمة وفقًا للمادة 6 من اتفاقية حقوق الإنسان.

على الرغم من وجود هذا الميثاق تبقى قوننة العدالة التنبؤية حاجة دولية ملحة لضمان حسن سير العدالة. وعليه، تشكل هذه التقنية إحدى الإشكاليات الرائدة في مجال الذكاء الاصطناعي.

 

المصادر والمراجع:

 

Ferrandi Robin, les fonctions de la justice prédictive, mémoire de recherche en droit, université de Lille 2, 2018-2019, p. 4

 

Alexandra Bensamoun, 2018, Droit numérique, Université de 

Rennes 1

Conseil de l’Europe, Charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires,  13 septembre 2019.

 

Le blog du professeur Bruno Dondero, La justice prédictive, FÉVRIER 10, 2017 · 10:23

إقرأ أيضاً
المساهمون في إعداد هذا المقال:
كافة حقوق النشر محفوظة لدى الموسوعة السياسية. 2021 .Copyright © Political Encyclopedia