عندما يتعلق الأمر بتنظيم التحول الرقمي والذكاء الاصطناعي، وكل منهما يفرض مخاطر لاحصر لها، يفعل صناع السياسات العكس. فهم يتعاونون مع شركات التكنولوجيا الكبرى مثل ميتا (فيسبوك)، وألفابت (جوجل)، وأمازون، وآبل، ومايكروسوفت، برغم أن مسؤوليها التنفيذيين أظهروا استعدادا وقحا لإنشاء أدوات خطيرة وإلحاق الأذى بالمستخدمين باسم تعظيم الأرباح...

زيوريخ- في أكتوبر/تشرين الأول من العام الماضي، تبنت المفوضية الأوروبية خريطة طريق جديدة لمكافحة الـمُـتاجَـرة في المخدرات والجريمة المنظمة، اللذين يشكلان واحدة من أخطر التهديدات الأمنية التي تواجه الكتلة. ولأسباب واضحة، لم يوجه صناع السياسات في الاتحاد الأوروبي الدعوة إلى أعضاء الكارتل للمساعدة في تصميم وتطوير هذه الاستراتيجية؛ ذلك أن طلب مُدخَـلات من شبكات إجرامية كان ليزيد من سهولة استمرارها في العمل دون عقاب.

ولكن عندما يتعلق الأمر بتنظيم التحول الرقمي والذكاء الاصطناعي، وكل منهما يفرض مخاطر لاحصر لها، يفعل صناع السياسات العكس. فهم يتعاونون مع شركات التكنولوجيا الكبرى مثل ميتا (فيسبوك)، وألفابت (جوجل)، وأمازون، وآبل، ومايكروسوفت، برغم أن مسؤوليها التنفيذيين أظهروا استعدادا وقحا لإنشاء أدوات خطيرة وإلحاق الأذى بالمستخدمين باسم تعظيم الأرباح.

على سبيل المثال، تقوم "مجموعات العمل" و"مجموعات الخبراء" و"المجالس الاستشارية" الوطنية والإقليمية والدولية التي تضم ممثلين من شركات التكنولوجيا الكبرى بإعداد مقترحات لتنظيم التحول الرقمي والذكاء الاصطناعي. فضلا عن ذلك، تُـمَـوَّل بعض المبادرات والمؤتمرات التي تتناول هذا الموضوع من قِـبَـل الشركات ذاتها التي تسعى هذه الجهود إلى تنظيمها.

الواقع أن التهديدات التي تفرضها الأنظمة الرقمية معقدة وبعيدة المدى. إذ تعمل التكنولوجيات الجديدة على توسيع فجوة التفاوت العالمي بشكل كبير، كما برزت شركات التكنولوجيا العملاقة بين أضخم مستخدمي الطاقة، ويترتب على ذلك عواقب وخيمة تتعلق بتغير المناخ والبيئة. ولعل الأمر الأكثر إثارة للقلق هو الانتهاكات شبه الثابتة للحق في الخصوصية، بسبب الافتقار إلى أمن البيانات أو سبل الحماية ضد المراقبة. من الممارسات المعتادة في الصناعة جمع كميات هائلة من البيانات وبيعها لأعلى مزايد. ونتيجة لهذا، يبدو أن المنصات الرقمية تعرفنا بشكل أفضل مما نعرف أنفسنا، والحياة على الإنترنت غارقة في التلاعب الاقتصادي والسياسي.

علاوة على ذلك، ثبت بالفعل أن التلاعب الخوارزمي والتضليل يهددان قدرة الديمقراطية على أداء وظيفتها على النحو اللائق. على سبيل المثال، قبل الانتخابات الرئاسية في الولايات المتحدة عام 2016، حصدت شركة الاستشارات السياسية كمبريدج أناليتيكا معلومات من نحو 87 مليون مستخدم على فيسبوك في محاولة للتأثير على الناخبين. وكانت الشركة والشركات التابعة لها أساءت بالفعل استخدام البيانات لمحاولة التأثير على التصويت في المملكة المتحدة على الخروج من الاتحاد الأوروبي.

في وقت أقرب إلى الزمن الحاضر، عمل التطور السريع الذي طرأ على نماذج اللغة الضخمة مثل ChatGPT من إنتاج شركة OpenAI على فتح سُـبُـل جديدة للاحتيال، بما في ذلك من خلال التزييف العميق الصوتي والمرئي الذي قد يدمر السمعة. كما عملت نماذج اللغة الضخمة على تسهيل انتشار الأخبار المزيفة، وهي آفة محسوسة بأعظم قدر من الحِـدّة في الديمقراطيات، حيث يهدد طوفان المحتوى المولد بالاستعانة بالذكاء الاصطناعي بإغراق الصحافة العالية الجودة وزعزعة استقرار بلدان بأكملها في غضون سويعات قليلة (كما حدث مع أعمال الشغب من جانب اليمين المتطرف في المملكة المتحدة مؤخرا). علاوة على ذلك، يمكن استخدام الاستراتيجيات ذاتها لخداع المستهلكين.

لكن هذا ليس كل شيء: فقد ارتبط استخدام وسائط التواصل الاجتماعي بأضرار كبيرة تلحق بصحة الشباب العقلية. وقد أعرب كثيرون من العاملين في هذا المجال عن قلقهم بشأن التأثير الـمُـربِك الذي قد تخلفه الهجمات السيبرانية المدعومة بالذكاء الاصطناعي والأسلحة المستقلة على السلام والأمن الدوليين، ناهيك عن المخاطر التي تفرضها مثل هذه الأسلحة على وجودنا.

أبدت شركات التكنولوجيا الكبرى على نحو مستمر أقل القليل من الاهتمام بإيذاء الناس وانتهاك حقوقهم. ينطبق هذا بشكل خاص على شركات وسائط التواصل الاجتماعي، التي تكسب في عموم الأمر قدرا أعظم من عائدات الإعلانات كلما طالت مدة بقاء المستخدمين على منصاتها. 

في عام 2021، قدم أحد المبلغين عن المخالفات وثائق تُـثـبِـت أن شركة فيسبوك كانت تعلم أن خوارزمياتها ومنصاتها تروج لمحتوى ضار لكنها فشلت في نشر تدابير مضادة حقيقية. لا ينبغي لهذا أن يفاجئنا: فقد وجدت بعض دراسات أن المستخدمين يقضون وقتا أطول في استخدام الإنترنت عندما يعبرون عن الكراهية والغضب والانفعال.

على الرغم من إحجامها عن مراقبة ذاتها، تريد شركات التكنولوجيا الكبرى المساعدة في وضع ضوابط تنظيمية للمجال الرقمي والذكاء الاصطناعي. إن منح هذه الشركات مقاعد على الطاولة أمر مثير للسخرية ومأساوي. تسمح الحكومات والمجتمع الدولي لهذه الشركات العملاقة بالهيمنة على عملية إنشاء إطار تنظيمي عالمي جديد وآليات إشراف. لكن ائتمان أولئك الذين يتربحون من المشكلات الجوهرية التي يواجهها هذا القطاع على مثل هذه العملية خطأ جسيم.

الخبر السار هو أن وفرة من الخبراء والأكاديميين المستقلين قادرون على تقديم مدخلات قيمة حول أفضل السبل لتنظيم تطوير واستخدام الذكاء الاصطناعي وغيره من التكنولوجيات الرقمية. بطبيعة الحال، يجب أن يشارك القطاع الخاص في عمليات صنع السياسات من هذا القبيل، ولكن ليس بدرجة أكبر من أصحاب المصلحة الآخرين، بما في ذلك منظمات المجتمع المدني.

لا ينبغي للإبداع التكنولوجي أن يخدم فقط مصالح عدد قليل من الشركات المتعددة الجنسيات. ولضمان مستقبل مستدام حيث يستطيع الجميع أن يعيشوا حياة كريمة ومزدهرة، يجب على صناع السياسات ألا يسمحوا لشركات التكنولوجيا العملاقة بتوجيه جهود تنظيم المنصات الرقمية وتطبيقات الذكاء الاصطناعي الناشئة.

* بقلم: بيتر جي كيرشلاجر، أستاذ الأخلاق ومدير معهد الأخلاقيات الاجتماعية بجامعة لوسيرن، وهو أستاذ زائر في المعهد الفدرالي للتكنولوجيا في زيورخ.

https://www.project-syndicate.org/

اضف تعليق