q
بينما نعزز الابتكار في مجال الذكاء الاصطناعي، علينا كذلك أن نُعدِّل القواعد والقوانين، كي نحمي البشر من أنظمته المعيبة، وليست هناك لحظةٌ أفضل من الوقت الحاضر لإعادة النظر في مسألة المسؤولية القانونية؛ فأنظمة الذكاء الاصطناعي بدأت تنتشر على نطاقٍ واسع، لكنَّها ما زالت تفتقر إلى اللوائح اللازمة لتنظيم استخدامها...
بقلم جورج ماليها، رافي بي. باريك

قد يُضطر طاقمٌ من المُحَلَّفين في ولاية كاليفورنيا الأمريكية إلى الإجابة عن هذا السؤال قريبًا؛ ففي ديسمبر 2019، قُتِل شخصان في حادثة سير بمدينة جاردينا، بعد أن صدمهما سائقٌ يقود سيارة «تِسلا»، مزودة بنظام قيادة يعتمد على الذكاء الاصطناعي، قد يُحكَم على السائق بقضاء بضعة أعوام في السجن، وبسبب هذه الحادثة وحوادث مماثلة، تعمل الهيئة الوطنية لسلامة النقل على الطرق السريعة (NHTSA)، ومعها المجلس الوطني لسلامة النقل، في الوقت الحالي على التحقيق في حوادث سيارات «تسلا»، كما أنَّ الهيئة الوطنية وسَّعت نطاق تحقيقها لتتحرَّى كيف يتعامل السائقون مع أنظمتها، أمَّا على مستوى حكومات الولايات، فتفكر كاليفورنيا في الحد من استخدام خصائص القيادة الذاتية في تلك السيارات.

ومنظومة المسؤولية القانونية في الولايات المتحدة، التي تحدد الطرف المسؤول في حالة وقوع إصابات، وتقرر التعويضات المالية عنها، ليست جاهزةً على الإطلاق للتعامل مع أنظمة الذكاء الاصطناعي؛ فقواعد المسؤولية القانونية صُممت لتناسب حقبةً كان البشر فيها هم السبب في أغلب الأخطاء والإصابات، ولذلك فإنَّ منظومات المسؤولية القانونية تُعاقِب المستخدم الفعلي المُتسبِّب في الإصابة، سواءٌ كان طبيبًا أو سائقًا أو غيرهما، لكن في أنظمة الذكاء الاصطناعي، قد تحدث الأخطاء دون أي إسهامٍ بشري، وهكذا فإنَّ منظومات المسؤولية القانونية ينبغي أن تُعدَّل لتناسب هذا الوضع الجديد؛ فتطبيق قوانين غير ملائمة سيضر بالمرضى، والمستهلكين، ومطوري أنظمة الذكاء الاصطناعي.

وليست هناك لحظةٌ أفضل من الوقت الحاضر لإعادة النظر في مسألة المسؤولية القانونية؛ فأنظمة الذكاء الاصطناعي بدأت تنتشر على نطاقٍ واسع، لكنَّها ما زالت تفتقر إلى اللوائح اللازمة لتنظيم استخدامها، وقد تسببت تلك الأنظمة فعلًا في بعض الإصابات؛ ففي عام 2018، قُتِل أحد المشاة بعدما صدمته سيارة ذاتية القيادة تابعة لشركة «أوبر»، ورغم أنَّ هناك نزاعًا حول ما إذا كان سائق السيارة قد ارتكب خطأً، فلا شك أنَّ نظام الذكاء الاصطناعي فيها عجز عن رصد الضحية، ومؤخرًا، بينما كان أحد برامج الدردشة الآلية القائمة على الذكاء الاصطناعي يتحدث مع مريضةٍ افتراضية مُصمَّمة لتحاكي المرضى ذوي الميول الانتحارية، شجَّعها البرنامج على أن تُقدِم على الانتحار، وإضافةً إلى هذا، ميَّز بعض أنظمة الذكاء الاصطناعي ضد النساء في تقييمه للسير الذاتية، وفي حالةٍ أخرى مثيرة، أخطأت خوارزمية ذكاء اصطناعي في التعرف على المشتبه به في حادثة اعتداءٍ شديد، ما أدى إلى القبض على شخصٍ غير الجاني، لكن رغم كل تلك الإخفاقات، ما زالت هناك مؤشراتٌ على أنَّ الذكاء الاصطناعي سيُحدث ثورةً في جميع تلك المجالات.

لكن كي نتيح استغلال جميع إمكانات الذكاء الاصطناعي، لا بد من تعديل منظومة المسؤولية القانونية على النحو الملائم؛ فالقواعد الفضفاضة للمنظومة، والدعاوى القضائية التي يُحتمل أن تكون عالية الكُلفَة، كل هذا سيثبط الاستثمار في أنظمة الذكاء الاصطناعي، وتطويرها، والإقبال على استخدامها، والانتشار الواسع لتلك الأنظمة في مجال الرعاية الصحية، والسيارات ذاتية القيادة، وغيرها من الصناعات، يعتمد على وجود أطرٍ قانونية، تحدد مَن يتحمل المسؤولية القانونية في حال تسببت تلك الأنظمة في وقوع إصابات، إن كان هناك طرفٌ مسؤول من الأساس.

ذلك أنَّ الذكاء الاصطناعي يضع صلاحية المنظومة التقليدية للمسؤولية القانونية محلَّ شك، فمثلًا، كيف نحدد الطرف المسؤول عندما توصي إحدى خوارزميات "الصندوق الأسود" -التي تتغير فيها المتغيرات وأوزانها باستمرار، بحيث تكون العوامل التي تُبنى عليها توقعات الخوارزمية مجهولةً- بعلاج مريضٍ ما بعلاجٍ معين يضره في النهاية؟ أو حين تقود خوارزميةٌ كهذه سيارةً بتهوُّرٍ قبل أن يتمكن سائقها البشري من التدخل؟ هل الخطأ هنا حقًّا خطأ الطبيب أو سائق السيارة؟ أم يقع الخطأ على عاتق الشركة المطورة للخوارزمية؟ وما المسؤولية التي ينبغي أن تتحملها الأطراف الأخرى التي شجعت استخدامها، مثل أنظمة الرعاية الصحية، وشركات التأمين، والمصنِّعين، والجهات التنظيمية؟ هذه كلها أسئلة ليس لها إجابات، وكلها في غاية الأهمية لضمان استخدام أنظمة الذكاء الاصطناعي في المنتجات الاستهلاكية على نحوٍ مسؤول.

فأنظمة الذكاء الاصطناعي لها تأثيرٌ كبير، كغيرها من التقنيات الثورية، ولو صُمِّمَت خوارزمياتها واختُبِرَت كما ينبغي، فقد تعيننا في تشخيص الأمراض، وأبحاث السوق، والتحليلات التنبُّئية، وغير ذلك من التطبيقات التي تتطلب تحليل مجموعات بيانات ضخمة، ووفق استبانةٍ دوليةٍ أجرتها شركة «ماكينزي» McKinsey مؤخرًا، فإن أكثر من نصف الشركات حول العالم قالت إنَّها تستخدم الذكاء الاصطناعي في عملياتها الروتينية بالفعل.

لكنَّ قواعد المسؤولية القانونية غالبًا ما تركز على الهدف الأسهل، وهو المستخدم الفعلي الذي يستخدم الخوارزمية، فعادةً ما تبدأ التحقيقات الهادفة إلى تعيين الطرف المسؤول بسائق السيارة التي تسببت في الحادثة، أو بالطبيب الذي اتخذ قرار علاج المريض بالعلاج الخطأ، وتنتهي التحقيقات عندهما كذلك.

صحيحٌ أن المستخدم الفعلي ينبغي أن يتحمل المسؤولية لو أساء استخدام نظام الذكاء الاصطناعي أو تجاهل تحذيراته، لكنَّ أخطاء تلك الأنظمة نادرًا ما تحدث بسبب المستخدم؛ فكيف نُحمِّل المسؤولية لطبيب طوارئ إن فشلت الخوارزمية التي يستخدمها في اكتشاف حالة «البابيليديما» papilledema، التي تتورم فيها الشبكية؟ ذلك الإخفاق قد يؤخر توفير الرعاية المطلوبة للمريض، وربما يتسبب في إصابته بالعمى، لكنَّ تشخيص تلك الحالة ليس أمرًا سهلًا دون فحصٍ من طبيب العيون؛ لأنَّ عملية التشخيص عادةً ما تتطلب بياناتٍ إكلينيكيةً أكثر، منها أشعةٌ على الدماغ، وفحصٌ لحدة البصر، ولهذا، فرغم الإمكانيات الثورية لأنظمة الذكاء الاصطناعي في مختلِف المجالات، سيعزف عنها المستخدمون لو تحمَّلوا وحدهم مسؤولية أخطائها، التي ربما تكون فتاكة.

ولن تُحَل المشكلة كذلك بتحميل المسؤولية كاملةً لمطوري أنظمة الذكاء الاصطناعي، والجهات التي تقر استخدامها، صحيحٌ أنَّ المطورين هم الذين يصممون الخوارزميات التي نناقشها هنا، لكن هل كل حادثة سير لسيارة صمَّمتها شركة «تسلا» سببها خطأٌ من الشركة نفسها، ويمكن إصلاحه بأن تُجري الشركة مزيدًا من الاختبارات قبل طرح منتجاتها؟ بالفعل بعض الخوارزميات يتعلم ذاتيًّا باستمرار، فيستقبل المدخلات ويستخدمها طوال الوقت ليُغيِّر مخرجاته، لكن لا أحد يستطيع أن يحدد بثقةٍ وبدقة كيف توصلت خوارزمية ذكاء اصطناعي إلى قرارٍ معين.

الحل هو أن نضمن أنَّ كل الأطراف المعنية، من مستخدمين ومطورين وغيرهم، كل مَن يتعامل مع المنتج من تطويره وحتى استخدامه، يتحملون ما يكفي من المسؤولية لضمان سلامة أنظمة الذكاء الاصطناعي وفاعليتها، لكن ينبغي ألَّا تكون تلك المسؤولية ثقيلةً إلى درجةٍ تجعل تلك الأطراف تعزف عن هذه الأنظمة.

ولحماية البشر من أنظمة الذكاء الاصطناعي المعيبة، ولدعم الابتكار في هذا المجال في الوقت ذاته، نقترح ثلاث طرق لتعديل المنظومات التقليدية للمسؤولية القانونية.

أولًا، على شركات التأمين أن تحمي أصحاب بوليصات التأمين من التكاليف الباهظة للدعاوى القانونية التي قد يواجهونها في حالة تسبُّب الذكاء الاصطناعي في وقوع أي إصابات، وذلك باختبار خوارزميات الذكاء الاصطناعي قبل استخدامها، والتأكد من صلاحياتها، مثلما تقارن شركات التأمين على السيارات بين أنواعها وتختبرها منذ سنوات، ويمكن كذلك تطوير نظامٍ مستقل لتقييم السلامة، يوفر للأطراف المعنية منظومة مسؤولية قانونية يمكن توقُّعها، وتتغير لتواكِب التقنيات والطرق الجديدة.

ثانيًا، ينبغي أن يُفصَل في الدعاوى القضائية المتعلقة ببعض أخطاء أنظمة الذكاء الاصطناعي في محاكم متخصصة، لديها خبرة في التحكيم في قضايا الذكاء الاصطناعي، هذه المحاكم المتخصصة يمكن أن تكتسب الخبرة في تقنياتٍ أو قضايا معينة، مثل التعامل مع القضايا التي تتضمن التفاعل بين نظامَي ذكاء اصطناعي (مثلًا في حالة اصطدام سيارتين ذاتيَّتَي القيادة)، وليست تلك المحاكم المتخصصة بالشيء الجديد، ففي الولايات المتحدة هناك محاكم متخصصة تحمي الشركات المُصنِّعَة للقاحات الأطفال، من خلال الفصل في الدعاوى القضائية المتعلقة بالإصابات الناتجة عن تلك اللقاحات، واكتساب معرفةٍ عميقة في ذلك المجال.

ثالثًا، كي نتجنب تحميل مطوري خوارزميات الذكاء الاصطناعي والمستخدمين الفعليين قدرًا زائدًا من المسؤولية القانونية، يمكن الاستعاضة عن ذلك بالمعايير التنظيمية التي تقرها الهيئات الفيدرالية، مثل الهيئة الأمريكية للغذاء والدواء (FDA)، والهيئة الوطنية لسلامة النقل على الطرق السريعة؛ فعلى سبيل المثال، حلَّت التشريعات واللوائح التنظيمية الفيدرالية محل بعض صور المسؤولية القانونية المتعلقة باستخدام الأجهزة الطبية والمبيدات، وعلى الجهات التنظيمية أيضًا أن تعتبر بعض أنظمة الذكاء الاصطناعي خطيرةً إلى درجةٍ تمنع طرحها في الأسواق إلا بعد استيفائها لمعايير معينة فيما يتعلق بالاختبارات التي تخضع لها، وتكرار هذه الاختبارات، والتأكد من صلاحيتها، وينبغي للجهات التنظيمية الفيدرالية كذلك أن تستبق المشكلة، وأن تركز على وضع عملياتٍ قياسيةٍ لتطوير أنظمة الذكاء الاصطناعي، وهذا سيتيح لتلك الجهات أن تبقى متأهبةً، وأن تمنع الإصابات المتعلقة باستخدام تلك الأنظمة، بدلًا من الاستجابة لها بعد فوات الأوان، وفي المقابل، بينما لم تستطع جهات حماية المستهلك والهيئات الصحية على المستوى المحلي ومستوى الولايات أن تضع منظومةً وطنيةً تنظِّم استخدام الذكاء الاصطناعي، فإنَّ بمقدورها أن تساعد في توضيح المعايير والمبادئ التي ينبغي أن تتبعها الصناعة في مجالٍ بعينه.

لو أخضعنا مجال الذكاء الاصطناعي لمنظومة مسؤوليةٍ قانونيةٍ عفا عليها الزمن، وعرقل هذا تطوُّر المجال، فستكون لذلك نتائج مؤسفة؛ فالسيارات ذاتية القيادة ستتيح الحركة والتنقل لأفرادٍ كُثر لا تتوافر لهم وسائل نقل، وفي مجال الرعاية الصحية، سيساعد الذكاء الاصطناعي الأطباء على اختيار علاجاتٍ أكثر فاعلية، وتحسين نتائج الرعاية، وخفض الكلفة أيضًا في ذلك المجال، المعروف بإنفاقه الزائد، ثم إنَّ هناك قطاعات، منها القطاع المالي وقطاع الأمن السيبراني، على وشك أن تحقق قفزاتٍ هائلةً في تطوير أنظمة ذكاء اصطناعي قد تفيد مليارات البشر حول العالم، لكن ينبغي ألَّا تحرمنا الخوارزميات المعيبة من تلك الفوائد، ولذلك، فأنظمة الذكاء الاصطناعي في القرن الحادي والعشرين تتطلب منظومةَ مسؤوليةٍ قانونيةٍ مناسبةً لهذا القرن.

اضف تعليق