اتجهت الدولة المصرية اتجاهًا حثيثًا ملحوظًا نحو التحول الرقمي للعدالة، إنفاذًا لاستراتيجية التنمية المستدامة: رؤية مصر 2023، لا سيما الهدف الأول والثالث منها؛ إذ أبانت فيهما على أن تطوير البنية التحتية الرقمية وتحقيق التحول الرقمي يمثلان أهدافًا لها. كما أعادت ذلك أيضًا في الاستراتيجية الوطنية لحقوق الإنسان لعام 2021، من خلال التحليل الذاتي للحق في التقاضي وتعزيز ضمانات المحاكمة المنصفة بإبراز نقاط القوة والفرص والتحديات،
والذي يعد من أهم نتائجها المستهدفة لتحقيق العدالة الناجزة التوسع فـي أعمال ميكنة إجـراءات التقاضي في المحاكم والجهـات المعاونـة لهـا، تطويـر آليات الربط الإلكتروني بين الجهات والهيئات القضائية المرتبطة بعمل مشترك داخل منظومة العدالة،
وتطوير النظام القانوني لتنفيذ الأحكام المدنية، والتجارية، والإدارية، بالاستعانة بالتقـدم الحادث في مجال الاتصالات وتكنولوجيا المعلومات؛ إعمالًا لمقتضيات التحول الرقمي، بمـا يعيـن على زيادة نسـبة تنفيـذ الأحـكام واجبـة النفـاذ فـي المجالين المدني والتجاري. اتجهت الدولة المصرية اتجاهًا حثيثًا ملحوظًا نحو التحول الرقمي للعدالة، إنفاذًا لاستراتيجية التنمية المستدامة: رؤية مصر 2023، لا سيما الهدف الأول والثالث منها؛ إذ أبانت فيهما على أن تطوير البنية التحتية الرقمية وتحقيق التحول الرقمي يمثلان أهدافًا لها.
تهدف تقنية “العدالة التنبؤية” إلى التأثير على عملية صنع القرار القضائي، وتعتمد أحدث موجة من التكنولوجيا على الذكاء الاصطناعي. يتم تحقيق هذا الهدف في الغالب من خلال تقنية محددة تسمى “التعلم الآلي” التي تقوم بالتنبؤات من خلال تقييم ملفات القضايا، سواء الوثائق الإجرائية أو القرارات القضائية المرتبطة بها
ونعني بها واقع العدالة القضائية في العصر الرقمي وفق مفهوم: “العدالة التنبئية”، والأثر المترتب لهذه العدالة على العدالة القضائية ضمن منظومة العدالة القانونية في التشريع الفرنسي، مع الإضاءة ما أمكن ذلك على التجارب الأنكلوسكسونية. وذلك وفق مخطط بحثي يعرض في قسمه الأول للفرص التي يتيحها هذا المفهوم لمنظومة العدالة القضائية ككل، سيما في ضوء تعزيز مبدأ ديمقراطية العدالة؛
وفي قسمه الثاني للتحديات التي يفرضها هذا المفهوم على هذه المنظومة العدلية التقليدية والخشية من قَولبته لنظام العدالة القضائية رقمياً وإقليمياً. وقد بَيَّنَ البحث أنه ومع عصر الانفتاح الرقمي، إن كانت العدالة بشكلها التقليدي قد غدت أكثر قرباً من مختلف العاملين فيها، إلا أنها غدت بالمقابل أكثر تكلفة بالنسبة للراغبين في التعامل معها بشكلها الرقمي، ما جعلها بوصفها: “تنبئية”، عدالةً أكثر انفتاحاً وأكثر تكلفة. كما بَيَّنَ البحث حالة القلق والترقب التي تعتري هذا المفهوم في البيئة القانونية الفرنسية: بين مفهوم العدالة الزجاجية، مروراً بالعدالة الحسابية الرقمية، وصولاً للعدالة الرأسمالية. ناهيك عن الخشية من تنميط العمل القضائي بقالب رقمي مكرر، أنكلوسكسوني المصدر والهُوية.
في ضوء النتائج السابقة، أوصى البحث بضرورة التعامل مع كل المخاوف التي تثيرها العدالة التنبئية باعتبارها تحديات وليس معوقات، مُبيناً أن إحساسنا بالعجز الحالي، إنما هو نتيجةً طبيعةً لعدم فهمنا للأمر! وأن نجاحنا في هذا الأمر رهنٌ في قدرتنا على التكييف والفهم الدقيق لهذا القادم الجديد، لاستقباله والترحيب به، كما التعايش معه، بأعلى ما يمكن من منافع،
وبأقل ما يمكن من خسائر. مؤكداً أن أي حديث عن عدالة تنبؤية رقمية قادرةٍ على أن تحل محل العدالة التقليدية الإنسانية، هو محض تصور غير ممكن التحقق حالياً، كون العدالة في فكرها وتكوينها إنسانية الطابع، لا رقمية الوجود
مفهوم العدالة التنبؤية
العدالة التنبؤية هي تقنية الذكاء الاصطناعي القائمة على الخوارزميات المرتبطة بالأدوات الرياضية التي تحلل مجموعات كبيرة من قرارات المحاكم من أجل تقييم فرص الفوز في محاكمة وتقدير أنواع معينة من الدعاوى القضائية المتخصصة بمبلغ التعويض.
بدأت الفكرة في عام 1977 مع عالم التكنولوجيا والحقوقي المتخصص في تاريخ القوانين جاك الو – Jacques Ellul في كتابه التكنيك (الفني) – Le technician حيث استوحى هذا التقني والحقوقي في الوقت عينه نظرية “ارتباط العدالة بالتكنولوجيا” من التطور التكنولوجي الذي تجلى في بداية السبعينات خاصة في مجال المعلوماتية.
وقد أثر التحول الرقمي للمجتمع بشكل كبير على تطور العدالة التنبؤية. ويبدو أنَّ بعض البلدان قد طورت بالفعل تفكيراً متعمقاً فيها مع تطبيقات عملية ملموسة. لا شك أن الذكاء الاصطناعي هو الذي يغذي معظم المخاطر والمخاوف في مجال العدالة التنبؤية. ففي الولايات المتحدة الأمريكية، تم بالفعل إنشاء “محامين آليين” في مكاتب المحاماة والتقنيين القانونيين، وهي شركات ناشئة متخصصة في تصميم هذه الخدمات القانونية عبر الإنترنت، وتقدم أدوات عمل جديدة لمتخصصي العدالة. إلا أنَّه في الوقت الحالي، لم يكن من الممكن إجراء تجارب مكثفة على العدالة التنبؤية، لا سيما أن تطوير هذه الأدوات يأتي إلى حد كبير من القطاع الخاص. ومع ذلك، بدأت السلطات العامة تهتم بهذه القضية.
لا تزال العدالة التنبؤية موضوعاً حساساً، فهي تحرز تقدماً مفيداً لجودة وكفاءة العدالة، ولكن التقدم الذي يجب أن يتم تأطيره بدقة، يقابله مخاطر لا يستهان بها الأمر الذي يطرح التساؤل عن مسألة صياغة تقدم هذه التقنية والمخاطر التي تمثلها. بالمقابل، سنستعرض المقترحات التنظيمية التي ظهرت في السنوات الأخيرة، على المستوى الأوروبي لمحاولة تقنين استخدام أدوات وخدمات العدالة التنبؤية بهدف الحد من هذه المخاطر.
مخاطر العدالة التنبؤية:
فيما يتعلق بالبيانات المفتوحة لقرارات المحاكم، تميل حركة تحرير البيانات هذه إلى محو أي تمييز بين المستويات المختلفة للمحاكم والطعن في التسلسل الهرمي الموجود بين المحاكم. إلا أن أحكام المحاكم العليا مهمة للغاية على وجه التحديد لأنها تساهم بوضع القواعد القانونية المبدئية.
علاوة على ذلك، إن إمكانية التنبؤ هذه يجب ألا تساهم في تجميد السوابق القضائية. فإن التحليل الآلي لكتل كبيرة من قرارات المحاكم من أجل تحديد معايير الحكم يمكن أن يساعد في الواقع على بلورة السوابق القضائية مما يُنتج خللا لأنه بدلاً من سن قانون جديد، سوف نبني على قرارات المحكمة السابقة، التي ستكون بمثابة استخدام قاعدة السوابق كما هو الحال في دول القانون العام.
بالإضافة إلى ذلك، قد تسبب خطر فقدان حرية التقدير والاستقلالية القضائية، فالقاضي قد يميل لاعتماد قرارات سابقة ويصدر أحكام في غير محلها.
بالإضافة إلى مخاطر التركيز على الأداء الكمي للسلطة القضائية على حساب أدائها النوعي، هناك أيضًا خطر الفشل التقني غير المنضبط لنظام تكنولوجيا المعلومات. في الواقع، برامج الكمبيوتر ليست مضمونة ويمكن أن تسبب خسائر كبيرة في حالة وجود خلل في النظام.
المقترحات التنظيمية للمفوضية الأوروبية لفعالية العدالة – CEPEJ للحد من هذه المخاطر
تبنت المفوضية الأوروبية لفعالية العدالة – CEPEJ في عام 2018 “الميثاق الأخلاقي الأوروبي لاستخدام الذكاء الاصطناعي في الأنظمة القضائية وبيئتها”. هدف الميثاق هو الحد من مخاطر العدالة التنبؤية ومحاولة تقنينها.
هذا الميثاق الأخلاقي موجه إلى:
• جميع أصحاب المصلحة، المسؤولين عن تصميم واستخدام أدوات وخدمات الذكاء الاصطناعي على أساس المعالجة الآلية للبيانات القضائية.
• إلى السلطات العامة المسؤولة عن الإطار التشريعي أو التنظيمي لتطوير واستخدام هذه الأدوات والخدمات.
وفقًا للمفوضية الأوروبية لفعالية العدالة – CEPEJ، إن استخدام أدوات وخدمات الذكاء الاصطناعي تهدف إلى تحسين كفاءة وجودة العدالة، وهي مبادرة تستحق العدالة. لكن مع الحرص دائماً على احترام الحقوق الأساسية لكل فرد والمنصوص عليها في اتفاقية حقوق الإنسان واتفاقية حماية البيانات الشخصية.
وبالتالي، يرغب ميثاق الأخلاقيات في توجيه سياسات العدالة العامة في هذا المجال. لذلك فهو يحدد خمسة مبادئ رئيسية:
1. مبدأ احترام الحقوق الأساسية
2. مبدأ عدم التمييز
3. مبدأ الجودة والسلامة
4. مبدأ الشفافية والحياد والنزاهة الفكرية
5. مبدأ تحكم المستخدم
حول مبدأ احترام الحقوق الأساسية: يجب ألا تحول أدوات الذكاء الاصطناعي دون وصول القاضي إلى محاكمة عادلة، بعبارة أخرى يجب استخدامها وفقًا لمبدأ المساواة. كما يجب استخدامها وفقًا لمبدأ استقلالية القضاة في اتخاذ قراراتهم.
مبدأ عدم التمييز: من المرجح أن تؤدي أدوات أو خدمات العدالة التنبؤية إلى خلق أو تعزيز التمييز بين الأفراد أو مجموعات من الأفراد. هذا هو السبب في أن المفوضية الأوروبية لفعالية العدالة – CEPEJ تدعو المصممين إلى أن يكونوا أكثر يقظة ورفع مستوى الوعي، خلال مرحلة التطوير وأثناء مرحلة الاستخدام، خاصة عندما تستند هذه الأدوات أو الخدمات إلى ما يسمى بالبيانات الحساسة، مثل الأصول العرقية أو الأصولية، والظروف الاجتماعية الاقتصادية والآراء السياسية، إلخ.
مبدأ الجودة والأمن: يجب أن يكون لدى مصممي البرمجيات أو الخوارزميات التنبؤية إمكانية اللجوء إلى خبرة المتخصصين في العدالة (القضاة والمحامين وما إلى ذلك) ، من خبرة الباحثين والمعلمين في القانون والعلوم الاجتماعية.
بالإضافة إلى ذلك، يجب التحقق من مصادر البيانات المدمجة في البرنامج وذلك لضمان عدم حدوث أي مشكلة في تغيير المحتوى أو معنى القرار قيد المعالجة. ولذلك يجب ضمان صدقية وسلامة الأنظمة التي يتم تخزين وتنفيذ الخوارزميات عليها.
مبدأ الشفافية والحياد والنزاهة الفكرية: تصر المفوضية الأوروبية لفعالية العدالة على التوازن الضروري الذي يجب إيجاده بين حقوق الملكية الفكرية التي تنتمي إلى مصممي أنظمة معينة ومتطلبات الشفافية والحياد والولاء و النزاهة الفكرية. وبالتالي فإن المفوضية الأوروبية لفعالية العدالة يدعو إلى الشفافية الكاملة، مع إمكانية حماية الأسرار الصناعية كحد أقصى.
مبدأ إتقان المستخدم: يجب أن يكون المستخدم مستقلاً في استخدامه لأدوات وخدمات الذكاء الاصطناعي، سواء كانوا متخصصين في العدالة أو متقاضين.
• فيما يتعلق بالقاضي ، يجب أن يكون قادراً على الانحراف عن نتيجة الخوارزمية أو الحفاظ على السيطرة والقدرة على تحليلها.
• فيما يتعلق بالخصوم، يجب إعلام الأخير بلغة واضحة ويمكن الوصول إليها من الطبيعة الملزمة أو من الحلول التي تقدمها له أدوات الذكاء الاصطناعي، والخيارات المتاحة له وحقه في المساعدة القانونية والإحالة إلى المحكمة. في جميع الحالات، يجب إبلاغ المتقاضي بوضوح بأي لجوء إلى العدالة التنبؤية في قضية تتعلق به ويكون قادراً على معارضته من أجل الاستماع إليه مباشرة من قبل المحكمة وفقًا للمادة 6 من اتفاقية حقوق الإنسان.على الرغم من وجود هذا الميثاق تبقى قوننة العدالة التنبؤية حاجة دولية ملحة لضمان حسن سير العدالة. وعليه، تشكل هذه التقنية إحدى الإشكاليات الرائدة في مجال الذكاء الاصطناعي.