الانتفاضة // بقلم: د خليل زكرياء // أستاذ بكلية العلوم القانونية والاقتصادية والاجتماعية بجامعة القاضي عياض – مراكش
في نونبر 2024، أثارت قضية قضائية بالبرتغال جدلاً واسعاً، حيث وُجهت شبهات إلى ثلاثة قضاة بمحكمة الاستئناف بلشبونة بكونهم استعانوا بأداة للذكاء الاصطناعي (يرجّح أنها ( ChatGPT) في صياغة قرار قضائي.
القرار محل الجدل انصبّ على إلغاء أمر بعدم المتابعة في ملف يخص النائبة البرلمانية السابقة هيلينا لوبيش دا كوستا، ورئيس المجلس البلدي السابق للمدينة داڤيد أمادو، وثمانية متهمين آخرين، نسبت إليهم تهمة اختلاس مليون يورو من مؤسسة سانتا كازا دا ميزيريكورديا بلشبونة.
محامو الدفاع أثاروا جملة من الاختلالات في منطوق الحكم، من بينها: أسلوب غير مألوف في الصياغة، استعمال تعابير قانونية نادرة أو في غير محلها، الإشارة إلى قوانين غير موجودة، فضلاً عن اجتهادات قضائية يتعذر العثور عليها (12 قراراً من أصل 14 تمت الإحالة إليها يُعتقد أنها وهمية).
وقدّم الدفاع طلباً بإلغاء القرار، معتبراً أنّه يحمل بصمات إنتاج آلي بواسطة الذكاء الاصطناعي.
المجلس الأعلى للقضاء البرتغالي (CSM) صرّح بعدم توصّله بأي شكاية رسمية، مؤكداً في المقابل أنّ القضاة يتمتعون باستقلالية كاملة في اختيار مصادرهم. غير أنّه لا توجد في التشريع البرتغالي أي مقتضيات قانونية خاصة تنظّم استعمال الذكاء الاصطناعي في صياغة الأحكام القضائية.
إشكالية المصداقية والأصالة : تكشف هذه القضية المخاطر المرتبطة بالاستعمال غير المؤطر للذكاء الاصطناعي في مجالات شديدة الحساسية كالقضاء. فالأخطاء الواقعية (من قبيل الإحالة إلى قوانين أو اجتهادات مختلقة) لا تمس فقط بمصداقية الحكم، بل تمس أيضاً بحقوق المتقاضين وضمانات المحاكمة العادلة.
غياب الإطار القانوني:أقرّ المجلس الأعلى للقضاء بعدم وجود قواعد محددة تنظم لجوء القضاة إلى الذكاء الاصطناعي. هذا الفراغ التشريعي يخلق « فراغاً» يفتح المجال أمام الانزلاقات والأخطاء، ويجعل في الوقت ذاته من الصعب الطعن في مثل هذا الاستعمال أو ترتيب جزاءات بشأنه.
3- الاستقلالية في مقابل المسؤولية : إذا كان استقلال القضاة يعدّ ركناً أساسياً من أركان دولة القانون، فإن ذلك لا يمكن أن يشكل سبباً للإعفاء من المسؤولية المرتبطة بجودة وصحة التعليل القانوني. فاللجوء إلى أدوات مؤتمتة دون إخضاع نتائجها لرقابة بشرية دقيقة قد يشكّل صورة من صور الإهمال المهني.
4- السابقة الدولية :أشار المقال إلى واقعة مماثلة بالبرازيل، حيث اعترف أحد القضاة باستعماله برنامج “ChatGPT” عن طريق “معاون له”. وهو ما يبيّن أن الظاهرة ليست معزولة، بل تندرج ضمن توجّه عالمي نحو إدماج الذكاء الاصطناعي في المؤسسات القضائية، أحياناً بشكل متسرّع.
تبرز القضية البرتغالية في آن واحد ما يعد به الذكاء الاصطناعي من إمكانات وما ينطوي عليه من مخاطر في المجال القضائي. فإذا كان هذا الأخير قادراً على تسريع البحث التوثيقي أو تسهيل تحرير المقررات، فإنه لا يمكن – ولا ينبغي – أن يحل محلّ العقل القضائي البشري، القائم على الدقّة، والأخلاق، والمعرفة العميقة بالقانون.
أولاً.. الحدود التقنية والوظيفية: الذكاء الاصطناعي غير مؤهَّل لإصدار قرارات ملزمة قانوناً، إذ يقتصر دوره على محاكاة الإجراءات القضائية بالاعتماد على معطيات سابقة ونصوص قانونية.
يفتقر إلى القدرة على التمييز الأخلاقي أو التفكير في العدالة كقيمة إنسانية، مما يجعله أداة ميكانيكية لا عقلاً قانونياً.
ثانياً.. البعد القانوني والدستوري: في غالبية الأنظمة الديمقراطية (بما فيها النظام البرتغالي)، يشترط أن يكون القاضي شخصاً طبيعياً متمتعاً بالاستقلالية والنزاهة.
اعتماد الذكاء الاصطناعي كسلطة تقريرية يمكن أن يشكّل خرقاً لمبدأ العدالة الطبيعية وللحق في محاكمة عادلة، كما كرّسه الفصل السادس من الاتفاقية الأوروبية لحقوق الإنسان.
ثالثا.. البعد الأخلاقي والفلسفي:العدالة ليست مجرّد تطبيق آلي للنصوص، وإنما عملية تأويلية تستحضر الظروف الإنسانية، والنوايا، والآثار الاجتماعية.
الذكاء الاصطناعي لا يمتلك وعياً ولا إحساساً بالإنصاف، وبالتالي لا يمكنه الاضطلاع بوظيفة “القضاء” بمعناها الحقيقي.
إن الاستعانة بأدوات مثل “ChatGPT” دون إخضاع نتائجها لرقابة نقدية صارمة، يفضي إلى صدور أحكام خاوية من القيمة القانونية، بل وأحياناً عبثية، الأمر الذي يقوّض ثقة المتقاضين في العدالة. والأسوأ من ذلك، أنّه يفتح الباب أمام الطعون الكيدية أو التشكيك المستمر في المقررات القضائية، على حساب فعالية النظام القضائي.
و عليه ، فعلى الرغم من مزايا التكنولوجيا، فإنها تبقى سلاحاً ذو حدّين، بالنظر الى ما قد يتسبب فيه من هدم للمؤسسات، من خلال إحلال الخوارزميات محل الانسان، كما أن الفراغ التشريعي المتعلق بعدم تنظيم الاستعانة بالذكاء الاصطناعي في بعض المجالات الحساسة ، يُعتبر خطراً جسيماً وجديا و حالا ، وتُعدّ القضية البرتغالية بمثابة ناقوس إنذار على الصعيد الدولي. كما جاء في التعليق -بالجريدة التي نشرت الخبر -بسخرية : ” لن نشعر بالملل مع العدالة الاصطناعية.” لكن الخطر الحقيقي ليس في الملل، بل في فقدان شرعية العدالة نفسها.
السؤال الذي يطرح هل القانون المغربي يتوفر على مقتضيات قانونية تحمي المنظومة القضائية المغربية من مخاطر الذكاء الاصطناعي
تجدر الإشارة أن المغرب يتوفر على ترسانة قانونية متنوعة تقف سدا منيعا ضد الاخطار التي يمكن ان يحملها اعتماد هذه التكنولوجية ، وعلى رأسها الأحكام الدستورية، فضلاً عن النصوص التشريعية وأخيرا ما ورد في النظام الأساسي للقضاة.
1. من منظور الدستور المغربي لسنة 2011:
الفصل 107: استقلال السلطة القضائية:
” السلطة القضائية مستقلة عن السلطة التشريعية وعن السلطة التنفيذية.
الملك هو الضامن لاستقلال السلطة القضائية. ”
و عليه فلا يعني الاستقلال المناعة من الرقابة، إذ أن الاستخدام غير المبرر لأداة تصدر أحكاماً مشوبة بالأخطاء قد يمس بمبدأ الاستقلال ذاته، لأنه يؤدي إلى فقدان السلطة القضائية لمكانتها وصدقيتها.
الفصل 109: منع التدخل وواجب الاستقلال:
” يمنع كل تدخل في القضايا المعروضة على القضاء؛ ولا يتلقى القاضي بشأن مهمته القضائية أي أوامر أو تعليمات، ولا يخضع لأي ضغط.
يجب على القاضي، كلما اعتبر أن استقلاله مهدد، أن يحيل الأمر إلى المجلس الأعلى للسلطة القضائية.
يعد كل إخلال من القاضي بواجب الاستقلال والتجرد خطأ مهنيا جسيما، بصرف النظر عن المتابعات القضائية المحتملة.
يعاقب القانون كل من حاول التأثير على القاضي بكيفية غير مشروعة.”
تفرض هذه المادة على القاضي التزاماً بالحياد وتمنعه من تلقي أي أمر أو تعليمات. وقد يثير اللجوء إلى ذكاء اصطناعي “صندوق أسود” تساؤلات حول مدى حياد الحكم إذا استند إلى خوارزميات غير شفافة وربما متحيزة. وعلاوة على ذلك، فإن أي إخلال بواجب الاستقلال والحياد يشكل “خطأً مهنياً جسيمًا”.
الفصل 110: تطبيق القانون.
” لا يلزم قضاة الأحكام إلا بتطبيق القانون. ولا تصدر أحكام القضاء إلا على أساس التطبيق العادل للقانون.
يجب على قضاة النيابة العامة تطبيق القانون. كما يتعين عليهم الالتزام بالتعليمات الكتابية القانونية الصادرة عن السلطة التي يتبعون لها. ”
تلزم هذه المادة القضاة بالتطبيق القانون العادل للقانون . وبالتالي، فإن القاضي الذي يصدر حكماً بالاستناد إلى نصوص أو سوابق “غير موجودة” – كما في القضية البرتغالية – يكون قد أخلّ بهذا الواجب الدستوري الجوهري، كما أن التطبيق العادل للقانون لا يمكن ان يتحقق كغاية و كمبدأ و كفلسفة إلا من خلال القاضي الانسان و ليس الآلة التي تعتمد على خوارزميات قد لا تستجيب الى معايير العدل التي يتداخل فيها ما هو قانوني و انساني و وضع اجتماعي للمخاطب بالقاعدة القانونية .
الفصل 117: حماية حقوق الأفراد وتطبيق القانون
” يتولى القاضي حماية حقوق الأشخاص والجماعات وحرياتهم وأمنهم القضائي، وتطبيق القانون.”
تلك هي المهمة الجوهرية للقاضي. فالحكم المبني على معطيات خاطئة و تحليلات خوارزمية يتعارض مع هذا الواجب الدستوري ، ويُخلّ بواجب حماية حقوق المتقاضين.
الفصل 120: الحق في محاكمة عادلة وفي صدور الحكم داخل أجل معقول
” لكل شخص الحق في محاكمة عادلة، وفي حكم يصدر داخل أجل معقول.
حقوق الدفاع مضمونة أمام جميع المحاكم. ”
إن المحاكمة العادلة تقتضي أن يصدر الحكم عن قاضٍ بشري مسؤول، لا عن خوارزمية، فالحكم المبني على أخطاء فادحة يتنافى مع مبدأ العدالة.
الفصل 125: تعليل الأحكام
” تكون الأحكام معللة وتصدر في جلسة علنية، وفق الشروط المنصوص عليها في القانون. ”
يُعدّ التعليل ركيزة كل حكم قضائي. فإذا انطوى التعليل ذاته على إحالات وهمية أو على نصوص قانونية غير موجودة، فإن الحكم يصير مشوباً بعيب جوهري، ويُصبح قابلاً للطعن.
ثانياً – من زاوية القانون التنظيمي رقم 106.13 المتعلق بالنظام الأساسي للقضاة:
يضع هذا القانون التنظيمي الآلية العملية للمساءلة، ولا سيما الفصل 97 الذي يتيح مسألة القاضي عن الأخطاء الجسيمة ، مثل :
الانتهاك الجسيم للقانون الموضوعي (الفقرة 3): إن الاستناد إلى قوانين غير موجودة قد تستدل بها الخوارزميات يشكّل خرقاً جسيماً وصريحاً للقانون الموضوع اذا صدر القرار أو الحكم على أساسها .
الإهمال غير المبرَّر في القيام بالإجراءات القضائية (الفقرة 4): إن عدم التحقق من صحة المصادر والاقتباسات التي بُني عليها الحكم، يعدّ صورة من صور الإهمال الجسيم في أداء الوظيفة القضائية و معلوم أن الخوارزميات غالبا ما تعتمد مصادر غير موثوقة و في أحيان كثيرة وهمية .
الإخلال بواجب الاستقلال والنزاهة والحياد (الفقرة 1): إن الاستخدام السطحي وغير المسؤول لأداة من أدوات الذكاء الاصطناعي، من دون إخضاع نتائجها لرقابة دقيقة، يمكن اعتباره إخلالاً بواجب النزاهة والحياد المهني.
الفصل 11 من القانون رقم 09-08 المتعلق بحماية المعطيات ذات الطابع الشخصي:
يمثّل هذا الفصل ضمانة أساسية ضد “القرارات القائمة على المعالجة الآلية و الرقمية للمعطيات ” أي تلك التي ترتكز على المعالجة الالية للمعطيات وينص على ما يلي:
“لا يجوز أن تتضمن الأحكام القضائية أي تقييم لسلوك شخص ما، إذا كان ذلك مبنياً على معالجة آلية لمعطيات ذات طابع شخصي تهدف إلى تقييم بعض جوانب شخصيته.
كما لا يجوز اتخاذ أي قرار يُنتج آثاراً قانونية بالنسبة لشخص إذا كان مبنياً حصراً على معالجة آلية لمعطيات تهدف إلى تحديد ملامح شخصيته أو تقييم بعض جوانبها.
ولا تُعتبر القرارات المتخذة حصراً على أساس معالجة آلية تلك القرارات المتخذة في إطار إبرام أو تنفيذ عقد، والتي أُتيح للشخص المعني فرصة تقديم ملاحظاته بشأنها، وكذا القرارات المستجيبة لطلب المعني بالأمر.”
1- الغاية الأساسية من المادة:
إقرار ضمانة جوهرية ضد “القرارات القائمة على المعالجة الآلية و الرقمية للمعطيات ” الذي يُنتج آثاراً قانونية بالنسبة للأفراد، وذلك بالتركيز على:
القرارات القضائية.
القرارات الإدارية ذات الأثر القانوني.
2- العناصر المكوِّنة لحظر “القرارات القائمة على المعالجة الآلية و الرقمية للمعطيات “:
أ- العنصر المادي:
“المعالجة الآلية”: كل معالجة رقمية أو إلكترونية تتم بشكل أوتوماتيكي.
“المعطيات ذات الطابع الشخصي”: كل معلومة تسمح بتحديد هوية شخص معيّن.
الغرض: “تقييم بعض جوانب شخصيته: سلوكه أو نواياه و قصده…” أو “تحديد ملامحه”.
ب- العنصر الشكلي:
الاعتماد الحصري: إن استعمال عبارة “حصراً على أساس” يفيد المنع المطلق للقرارات المبنية كلياً على معالجة آلية دون أي تدخل بشري فعلي.
3- المجالات المشمولة بالحماية:
أ- المجال القضائي: منع أي حكم يستند في تعليله وتقييمه لسلوك الأشخاص إلى معالجة آلية صِرفة.
ب- المجال الإداري والتعاقدي: يشمل كافة القرارات الفردية التي تُنتج آثاراً قانونية.
4- الاستثناءات الواردة:
القرارات التعاقدية في إطار إبرام أو تنفيذ عقد.
شروط الاستثناء:
تمكين الشخص المعني من “تقديم ملاحظاته”
أن تكون القرارات استجابة لطلب الشخص ذاته.
أهمية الفصل 11 في التشريع المغربي:
يشكّل تقدّماً تشريعياً مبكراً بالمقارنة مع العديد من التشريعات الأخرى في إدراك مخاطر “القرارات القائمة على المعالجة الآلية و الرقمية للمعطيات “.
يوازن بين التطور التكنولوجي والحماية القانونية.
يكرّس “حق الإنسان في أن يُحاكَم من طرف إنسان” كضمانة أساسية.
يمثّل نصّاً حيوياً في عصر الذكاء الاصطناعي، ويستلزم تفعيل آليات عملية وتطويراً متواصلاً لمواكبة التطورات التكنولوجية.
2- الضمانات التي يوفّرها الفصل:
حماية الكرامة الإنسانية: عبر منع اختزال الإنسان إلى مجرد بيانات رقمية.
الحفاظ على سلطة التقدير البشري و خاصة اليقين و الاطمئنان الوجداني للقاضي: تكريس دور العقل البشري في التقييم؛ الوقاية من الانحيازات الخوارزمية: الحد من آثار التحيّز الملازم للأنظمة الذكية.
الاستنتاج:. فالمسؤولية المهنية والدستورية للقاضي تظل كاملة ومستقلة عن أي أداة يعتمدها، وأي تقصير في هذا الواجب يعرضه للمساءلة التأديبية طبقاً للقانون المغربي الصارم والواضح في هذا المجال.
و ختاما و بناء على كل ما سبق و نظرا للتطور و الغزو التكنلوجي الذي اصبحنا نعيشه ، لابد أن تعمل كل الدول، و في كل المجالات ولا سيما المؤسسات المعنية، على وضع ميثاق أخلاقي وتنظيمي واضحا لاستعمال الذكاء الاصطناعي، يقوم على:
الشفافية في الأدوات المستعملة.
إلزامية المراجعة البشرية.
تتبع مصدر المعلومات.
إقرار جزاءات في حالة الإخلال.
تحديد نطاق الاستعمال المسموح (مثلاً: المساعدة في البحث الأولي).
إلزامية التحقق البشري من كل مخرجات الذكاء الاصطناعي.
حظر إدخال المعطيات السرية أو ملفات القضايا في هذه الأدوات.
يمكن للذكاء الاصطناعي أن يشكل أداة دعم للقاضي لتحسين النجاعة، لكنه لا يمكن أن يحلّ محلّ الجهد التفسيري، والسلطة التقديرية، والضمير المهني، والمسؤولية التي تُشكّل أساس العمل القضائي.
الحل يكمن في التوازن بين تشجيع الابتكار التكنولوجي في مجال العدالة، وبين الحفاظ على الضمانات الدستورية والقانونية لاستقلال القضاء وحقوق المتقاضين.
وأي استعمال للتكنولوجيا يجب أن يخضع لرقابة صارمة من القاضي ذاته وتحت إشراف المجلس الأعلى للسلطة القضائية.