منوعات - معلوماتية

القانون الجنائي: بين السلطة التقديرية والحتمية الرقمية

(استخدام بالذكاء الاصطناعي Chat GPT في إصدار الأحكام القضائي)

في خطوة مهمة ومثير للجدل والنقاش، أقدمت إحدى المحاكم الجنائية في الولايات المتحدة الأمريكية على الاستعانة بالذكاء الاصطناعي في إحدى القضايا المعروضة أمامها، ويعد هذا – وبحق – تطوراً جوهرياً في العمل القضائي يضع القضاء أمام مهمة جديدة وليست بالسهلة، بل وتنطوي على صعوبة وتعقيد بالغين...

في خطوة مهمة ومثير للجدل والنقاش، أقدمت إحدى المحاكم الجنائية في الولايات المتحدة الأمريكية على الاستعانة بالذكاء الاصطناعي في إحدى القضايا المعروضة أمامها، ويعد هذا – وبحق – تطوراً جوهرياً في العمل القضائي يضع القضاء أمام مهمة جديدة وليست بالسهلة، بل وتنطوي على صعوبة وتعقيد بالغين؛ ذلك ان الاستعانة بأدوات الذكاء الاصطناعي في العمل القضائي يؤدي إلى إثارة أسئلة تتعلق – بشكل أساسي – بمدى إمكانية التوفيق بين السلطة التقديرية والتي تفترض جهداً قانونياً بشرياً وبين الآلية التي تعمل بها أدوات الذكاء الاصطناعي، سيما ونحن نتجه نحو ما يمكن أن نسميه بـ "الحتمية الرقمية" التي تفرض على كل مرافق الدولة، وأهمها القضاء، أن تتجاوب وتتعايش مع التطورات التكنولوجية وأبرزها الذكاء الاصطناعي. 

في قضية (NIYA ROSS V. UNITED STATES) بالعدد (23-CM-1067)، والتي نظرتها محكمة الاستئناف (Court of Appeals) في مقاطعة كولومبيا (District of Columbia) في الولايات المتحدة الأمريكية بتاريخ 20 فبراير 2025، تمت إدانة "نيا روس Niya Rose" بجريمة القسوة على الحيوانات بعد ترك كلبها "سينامون Cinnamon" داخل سيارتها المتوقفة في يوم شديد الحرارة (98 درجة فهرنهايت) لمدة تجاوزت الساعة. وقد قام أحد المارة بالإبلاغ عن الكلب الذي كان ينبح باستمرار داخل السيارة، مما استدعى تدخل فرق الطوارئ التي قامت بإخراج الكلب من السيارة. بعدها، تم القبض على "روس Rose" عند عودتها إلى السيارة. وتمت محاكمتها وإصدار حكم بإدانتها.

وقد استندت الإدانة إلى المواد (22-1001) و(22-1002) من قانون مقاطعة كولومبيا، التي تجرّم الإهمال في توفير الحماية والمأوى المناسبين للحيوان. وفي الاستئناف، دفعت "روس Rose" بأن الأدلة غير كافية للإدانة، إذ لم يُثبت أن "الكلب" قد عانى بالفعل أو أنه كان في خطر واضح.

وقد أثارت هذه الدعوى والحكم الصادر فيها خلافاً في الرأي بين قضاة محكمة الاستئناف، فرأي الأغلبية الذي اعتنقه (القاضي شانكرShanker ، بموافقة القاضي هواردHoward ) اتجه نحو عدم كفاية الأدلة للإدانة، فلم تقدم أدلة كافية لإثبات أن الكلب عانى من الحرارة داخل السيارة، إذ لم تكن هناك شهادة لخبراء حول درجة الحرارة داخل السيارة أو فيما إذا كانت هناك أعراض جسدية واضحة على الكلب. كما استند هذا الرأي بعدم إمكانية الاعتماد على "المعرفة العامة Common Knowledge" للبت في هذه القضية. وقد أصدرت محكمة الاستئناف قرارها معتنقةً رأي الأغلبية بإلغاء الإدانة، وقررت أعادت سجل (اضبارة) الدعوى إلى محكمة الموضوع لإصدار حكم بالبراءة.

وإذا كان هذا هو رأي أكثرية عدد أعضاء المحكمة، فان هناك رأياً مخالفاً تبناه أحد قضاة المحكمة وهو (القاضي ديهل Deahl)، والذي ذهب فيه إلى أن الأدلة كانت كافية لإثبات أن الكلب كان في خطر، مستشهدًا بدرجات الحرارة العالية وشهادة (ضابط مراقبة الحيوانات) الذي أشار إلى أن الكلب كان سيتعرض للأذى لو بقي في السيارة لفترة أطول. كما استند إلى "المنطق العام" بأن ترك كلب في سيارة ساخنة لفترة طويلة يشكل تهديداً لحياته، بغض النظر عن الأدلة التفصيلية.

ولكن مع ذلك، فان محكمة الاستئناف – كما ذكرنا – قد ألغت حكم إدانة (نيا روس)، معتبرة أن الأدلة لم تكن كافية، بما لا يدع مجالًا للشك، لإثبات تهمة القسوة على الحيوانات.

والذي يهمنا هنا هو ان الذكاء الاصطناعي (AI) كان حاضراً بشكل لافت في أروقة المحكمة ولعب دوراً مثيراً للاهتمام والجدل في هذه القضية، إذ استخدمه القضاة أعضاء المحكمة سواء الذين اعتنقوا رأي الأغلبية أو من ذهب مع الرأي المخالف، وذلك لتدعيم حججهم وتحليل الأدلة. وعلى النحو التالي:

1- استخدام الذكاء الاصطناعي AI لتحليل الأدلة: فقد أشار القاضي (هوارد) في رأيه المتوافق مع قرار المحكمة إلى أن زملاءه استخدموا أدوات الذكاء الاصطناعي، بما في ذلك (Chat GPT)، وذلك لمراجعة وتحليل وقائع القضية ومقارنتها بقضايا سابقة. كما ان الرأي المخالف والذي تبناه القاضي (ديهل) قد استشهد هو الآخر بإجابات قدمها (Chat GPT) حول مدى تأثير ترك كلب في سيارة مغلقة وفي درجات حرارة مرتفعة، إذ أكدت إجابات (Chat GPT) أن هذا يمكن أن يؤدي بسرعة إلى ارتفاع درجة الحرارة إلى مستويات تؤدي إلى قتل الكلب.

2- مدى إمكانية اعتبار الذكاء الاصطناعي AI كأداة للمساعدة في إصدار الأحكام القضائية: فقد ناقش القاضي (هوارد) وبشكل منفصل الاستخدام القضائي لأدوات الذكاء الاصطناعي، وقد حذر من مخاطره المحتملة، كمثل انتفاء الحياد أو التحيزات التي يصعب إدراكها، فضلاً عن المخاوف المتعلقة بانتهاك الخصوصية، وأخيراً ما يتعلق بدقة المعلومات التي يقدمها الذكاء الاصطناعي. كما أشار القاضي (هوارد) إلى أن الذكاء الاصطناعي يمكن أن يساعد في تخفيف العبء على المحاكم من خلال تقديم ملخصات وتحليلات قانونية في العمل القضائي، لكنه أكد على ضرورة التعامل بحذر مع مثل هذه الأدوات؛ نظراً لأن قرارات المحكمة تتطلب معايير قانونية صارمة لا يمكن تفويضها بالكامل للذكاء الاصطناعي.  

3- مدى إمكانية ان يتولى الذكاء الاصطناعي تقييم الأدلة: فالرأي المخالف استخدم (ChatGPT) لتدعيم حجته بأن ترك كلب في سيارة ساخنة يُعتبر خطيراً بشكل واضح، حتى دون الحاجة إلى شهادة الخبراء، وهو ما عارضته الأغلبية من أعضاء المحكمة الذين رأوا أن الحكم يجب أن يعتمد على الأدلة المباشرة وليس "الافتراضات العامة". وهذا يعكس اختلافًا في وجهات النظر حول مدى إمكانية الاعتماد على الذكاء الاصطناعي كمصدر "للمعرفة العامة Common Knowledge" في القضايا الجنائية.

وخلاصة ما تقدم، فان دور الذكاء الاصطناعي في هذه القضية – على ما يبدو – لم يكن العامل الحاسم في الفصل بموضوع الدعوى المعروضة أمام المحكمة، لكن تم استخدامه كأداة تساعد القضاة في تحليل ما يمكن أن يستند إليه القاضي في حكمه سواء ما تعلق بالاستدلال المنطقي أو بتقييم الأدلة. ومع هذا كله، فان المحكمة – على ما سبق ايضاحه – أصرت على الالتزام بالمعايير القانونية التقليدية (الكلاسيكية)، فلم تستسلم بشكل كامل لأدوات الذكاء الاصطناعي ولم تخضع لمعطياته أو تأخذ بإجاباته، فعلى الرغم من انها استعانت بأهم أداة للذكاء الاصطناعي حالياً وهي (ChatGPT)، ولكن مع ذلك اعتبرتها مجرد وسيلة مساعدة لتحليل الأدلة القانونية تحليلاً يخضع – بالنهاية – لفهم المحكمة وتقديرها.   

ويبقى التحدي قائم بين ما يقدمه الذكاء الاصطناعي من ميزات وخصائص من شأنها أن تسهل كثيراً العمل القضائي الذي أصبح يتصف بالصعوبة والتعقيد وبين مساوئ الذكاء الاصطناعي والمتمثلة بالتشكيك في حياد النتائج التي يقدمها وعدم انحيازها ومدى ضمان دقتها وعدم تضليلها سيما إذا بدت إجاباته مقنعة في ظاهرها فحسب، ولكن في حقيقتها غير صحيحة؛ لأن قواعد اللغة وبنية ما تقدمها أنظمة الذكاء الاصطناعي بليغة للغاية، فقد تبدو دقيقة أو مقبولة وهي ليست كذلك، وهذا ما يُصطلح عليه بـ (هلوسة الذكاء الاصطناعي أو الهلوسة الاصطناعية Artificial hallucination) قياساً على ظاهرة الهلوسة في علم النفس البشري. 

ونشير أخيراً إلى ان العدالة هي شعور كامن في ضمير الإنسانية، الأمر الذي يؤدي إلى طرح تحدي آخر يتمثل بمدى إمكانية (الذكاء الاصطناعي) بالغوص في أعماق هذا الضمير واستشعار العدالة وضمان تحقيقها، وهو سؤال سيبقى يُطرح وبإلحاح في وقتنا الحاضر حتى يحصل على إجابة كافية وافية والتي لا يمكن الوصول إليها إلا بعد إشباع هذا الموضوع دراسة وبحثاً بشقيه معاً: القانوني، وما ينطوي عليه من تعقيد في بعض مسائله، كما في تفسير نصوص القانون وإثبات القصد الجرمي مثلاً، وشقه التكنولوجي ما يشهده من تطور وتقدم، والذي من المؤمل أن يخبرنا في المستقبل القريب عن الحيز الآمن للذكاء الاصطناعي ونطاقه المحدد الذي يمكن أن يعمل فيه بحيث لا يسمح له أن يتعداه. 

اضف تعليق