تدّعي الإمارات العربية المتحدة أن المبدأ التوجيهي الذي يستند إليه برنامج الذكاء الاصطناعي الذي تعتزم تطبيقه هو "الناس أولا". لكن التصميم يشير إلى عكس ذلك. إن الحكومة التي تقيّم الوزارات بناء على "سرعة التبني" و"إتقان تطبيق الذكاء الاصطناعي" لا تتتبع ما يهم، بل تكرر منطق الكفاءة ذاته الذي تسبب...

باريس/ليوبليانا ــ في وقت سابق من هذا الشهر، أعلنت الإمارات العربية المتحدة عن خطة لتشغيل نصف خدماتها الحكومية باستخدام "الذكاء الاصطناعي الوكيل" في غضون العامين المقبلين. بموجب هذه الخطة، من المفترض أن يعمل الذكاء الاصطناعي باعتباره "شريكا تنفيذيا" يتولى مهام "التحليل، واتخاذ القرار، والتنفيذ، والتحسين، لحظيا" دون تدخل بشري. بعد أن أمضينا حياتنا المهنية عند تقاطع ريادة الأعمال، والبحوث، والسياسة الرقمية، بوسعنا الآن أن نعلن بثقة إن هذه الخطة متهورة. ولأن الإمارات العربية المتحدة تقدم نفسها كنموذج رقمي عالمي، فسوف تستشعر حكومات أخرى الضغوط التي قد تدفعها إلى السير على خُطاها.

هذا خطر لا يجوز لنا أن نتجاهله. نحن نعرف بالفعل ماذا يحدث عندما تفوض الحكومات عملية صنع القرار إلى خوارزميات. في عام 2021، اتّـهَم نظام يعمل بالتعلم الذاتي في هولندا عن طريق الخطأ نحو 35 ألف أسرة بالاحتيال في المطالبة بإعانات رعاية الأطفال. وصدر الأمر للآباء والأمهات بسداد عشرات الآلاف من اليورو، وهي مبالغ لم يكونوا مدينين بها قَط؛ فخسروا مساكنهم؛ ووُضِع أكثر من 2000 طفل تحت رعاية الدولة.

كانت هذه النتيجة في الواقع مدمجة في تصميم النظام. فقد جرى تصنيف الجنسية المزدوجة والأسماء ذات الصبغة الأجنبية كعوامل خطر، فأصبح التمييز غير القانوني داخلا بشكل مباشر في نسيج النموذج. كانت النتيجة فضيحة وطنية أدت في النهاية إلى استقالة حكومة رئيس الوزراء آنذاك مارك روته.

حدثت ديناميكية مماثلة في أستراليا. بين عامي 2015 و2019، طالَب برنامج Robodebt 433 ألف مستفيد من الرعاية الاجتماعية برد مبلغ 1.7 مليار دولار أسترالي (1.2 مليار دولار أميركي) من ديون افترض البرنامج أنها غير قانونية. كان الضرر عميقا، حيث شهدت أمهات بأن أبناءهن انتحروا بعد تلقيهم إخطارات بديون لم يكن لديهم أي وسيلة للطعن فيها. في وقت لاحق وجدت لجنة مَلَكية أن البرنامج "ليس عادلا ولا قانونيا".

في الولايات المتحدة، في الوقت ذاته، استعاضت ولايتا أركنساس وأيداهو عن الممرضات بخوارزميات لتقييم الأهلية ومستويات الرعاية المنزلية. وتقلصت الرعاية المقدمة للأشخاص المصابين بالشلل الدماغي، والشلل الرباعي، والتصلب المتعدد بنسبة 20-50% بين عشية وضحاها. في النهاية أمرت المحاكم بوقف استخدام هذه الأنظمة، ولكن بعد وقوع الضرر. وتُرِك بعض المرضى دون دعم كافٍ، الأمر الذي أدى إلى مضاعفات طبية كان من الممكن تجنبها.

تضمنت كل حالة من هذه الحالات نظاما واحدا داخل هيئة واحدة. الآن، تخيل أن مثل هذه الأنظمة تتولى إدارة نصف الخدمات الحكومية، كما تقترح خطة الإمارات العربية المتحدة.

لنتأمل على سبيل المثال حالة أم عزباء جرى تجميد إعانات رعاية أطفالها بعد أن وَسَمَ وكيل الذكاء الاصطناعي نشاطها المصرفي، تاركا إياها لتخوض عملية استئناف تنقلها من نظام آلي إلى آخر، دون أي جهة اتصال بشرية، بينما يحين موعد دفع الإيجار. وماذا عن عامل مهاجر يُرفض تجديد إقامته لأن النظام لا يستطيع تحليل مستندات صاحب عمله ــ بما يجعله فعليا غير موثق ــ أو أرملة مسنة يُـعَـلَّق معاشها التقاعدي بسبب تعارض قاعدتي بيانات ولأنها عاجزة عن فهم واجهة المستخدم؟

هذه ليست افتراضات. إنها أنماط موثقة يعززها الذكاء الاصطناعي الوكيل بطرق لا يمكن لأي برنامج تدريبي معالجتها في غضون الجدول الزمني المحدد بعامين في الإمارات العربية المتحدة.

وتبرز هنا ثلاثة مخاطر رئيسية. الأول يتمثل في الحجم: عندما يرتكب موظف اجتماعي خطأ ما، يعاني شخص واحد؛ وعندما يرتكب وكيل الذكاء الاصطناعي خطأ، فقد يتأثر آلاف قبل حتى أن ينتبه أحد.

ثم هناك مسألة غموض عملية صنع القرار في الذكاء الاصطناعي. لأن الأنظمة الوكيلة تتخذ القرارات بالتسلسل، حيث تُـبني كل خطوة على الخطوة السابقة لها، فإن المسار السببي يضيع فعليا بحلول الوقت الذي يصبح فيه الضرر مرئيا. يقدم نظام المزايا الصحية الخوارزمي في أركنساس مثالا صارخا على ذلك. لم يستطع أحد ــ ولا حتى مبتكروه ــ شرح كيفية عمله بشكل كامل، الأمر الذي دفع محكمة فيدرالية إلى وصفه بأنه "غير منطقي بالمرة". علاوة على ذلك، قد يكون الافتقار إلى الشفافية متأصلا عبر الأسرار التجارية أو أطر الملكية التي تستند إليها الخوارزميات.

أخيرا، تعكس أنظمة الذكاء الاصطناعي اتجاه عبء الإثبات، بما يجبر المواطنين على إثبات براءتهم بدلا من مطالبة الدولة بتبرير أفعالها. وكما أظهرت فضيحة إعانات رعاية الأطفال في هولندا وبرنامج Robodebt في أستراليا، فإن أولئك الأقل قدرة على القيام بذلك ــ الأشخاص الذين يعانون من محدودية الوقت، والمال، والمهارة اللغوية، والقدرة على الوصول إلى الدعم القانوني ــ هم الأشد تضررا.

تدّعي الإمارات العربية المتحدة أن المبدأ التوجيهي الذي يستند إليه برنامج الذكاء الاصطناعي الذي تعتزم تطبيقه هو "الناس أولا". لكن التصميم يشير إلى عكس ذلك. إن الحكومة التي تقيّم الوزارات بناء على "سرعة التبني" و"إتقان تطبيق الذكاء الاصطناعي" لا تتتبع ما يهم، بل تكرر منطق الكفاءة ذاته الذي تسبب بالفعل في إحداث أضرار جسيمة في مختلف أنحاء العالم.

تُـعَـد سرعة التبني مقياسا خاصا بالموردين. لكن المسؤولية الأساسية الملقاة على عاتق الحكومة هي واجب الرعاية القائم على الحكم البشري.

يتوافق هذا مع توقعات المواطنين بأن تكون الحكومة مسؤولة وشفافة، وأن تشرح القرارات التي تؤثر على حقوقهم وحرياتهم. عندما تتبنى الحكومات بحماس عملية صنع القرار المستقلة باسم الكفاءة، فإنها، في حقيقة الأمر، تتنازل عن هذه المسؤولية.

الواقع أن كل فضيحة مرتبطة بالخوارزميات في السنوات القليلة الأخيرة أثارت ذاته الأسئلة الجوهرية: من الذي يتولى المسؤولية، ومن اتخذ القرار؟ في حكومة يديرها الذكاء الاصطناعي الوكيل، لم تعد لهذه الأسئلة إجابات واضحة. فالنظام يقرر، ويحدث نفسه، ويمضي قدما، تاركا المواطنين دون ملاذ عندما تسوء الأمور.

مع ظهور الذكاء الاصطناعي، تتآكل المساءلة الديمقراطية ليس من خلال استيلاء صريح على السلطة، بل من خلال سلسلة من قرارات التوريد التي تحل بهدوء محل الرقابة البشرية. من خلال تقويض الثقة في المؤسسات في وقت حيث أصبحت بالفعل عند مستويات منخفضة بدرجة خطيرة، تخدم هذه الأنظمة في نهاية المطاف مصالح عمالقة التكنولوجيا الذين يقودون ثورة الذكاء الاصطناعي.

لكن هذه الحال ليست حتمية بالضرورة. تمتلك الإمارات العربية المتحدة الموارد، والمواهب، والاستقرار السياسي اللازم لبناء حكومة رقمية تركز حقا على الإنسان، وقادرة على وضع المعيار العالمي من خلال تعزيز، وليس استبدال، عملية صنع القرار البشري.

لن تقتصر تكاليف الفشل في إدارة هذا الأمر على الإمارات العربية المتحدة. بل ستتحملها أم عزباء في بلد آخر تُحرم من إعاناتها بسبب خوارزمية لم تكن تعلم بوجودها مطلقا، فضلا عن عدد لا يحصى من النساء الأخريات مثلها في مختلف أنحاء العالم.

...................................

* بقلم: غابرييلا راموس، الرئيسة المشاركة لفريق العمل المعنيّ بعدم المساواة والإفصاحات المالية ذات الصلة بالجوانب الاجتماعية، شغلت سابقًا منصب مساعد المدير العام للعلوم الاجتماعية والإنسانية في اليونسكو، حيث أشرفت على إعداد التوصية المتعلقة بأخلاقيات الذكاء الاصطناعي، كما شغلت منصب رئيسة ديوان منظمة التعاون الاقتصادي والتنمية، وممثلة المنظمة لدى مجموعة العشرين ومجموعة السبع ومنظمة التعاون الاقتصادي لآسيا والمحيط الهادئ.

**إميليا ستويمنوفا دوه، أستاذة مشاركة في الهندسة الكهربائية بجامعة ليوبليانا، عضو في مجلس إدارة مؤسسة غلوبيثكس، ووزيرة سابقة للتحول الرقمي في سلوفينيا.

https://www.project-syndicate.org/

اضف تعليق