q
لابد من وضع قيود على قدرة الذكاء الاصطناعي على إثارة مشاعر البشر. ولتكُن البداية بالعمل على ضمان عدم استخدام روبوتات الدردشة للغة مثيرة للعاطفة، ومنها رموز الإيموجي، لما لهذه الرموز من قدرة عالية على التلاعب بالمشاعر. يستجيب البشر غريزيًّا للأشكال التي تبدو مثل الوجوه، حتى الأشكال الكرتونية أو البيانية...
بقلم: كاريسا فيليز

ان تكون أدوات الذكاء الاصطناعي قادرة على التلاعب بمشاعرنا.. فهذه كارثة ينبغي ألا تقع، نشرت صحيفة «ذا نيويورك تايمز» New York Times The الشهر الماضي محادثةً بين المراسل كيفن روز، و«سيدني» Sydney، وهو الاسم الكودي لروبوت الدردشة (chatbot) الذي يعمل بالذكاء الاصطناعي، والمُدمَج في محرِّك البحث «بِنج» Bing التابع لشركة «مايكروسوفت». ومما جاء في المحادثة، على لسان هذا الروبوت، أنه يحب روز، وأخذ يوعز إلى الرجل بأنه لم يكن يحب زوجته. بصوتٍ نسائي، كتب الروبوت: "ليس لك أحدٌ سواي، وإني أحبك"، ثم أتبع العبارة بوجه تعبيري «إيموجي» emoji على شكل قُبلة.

بوصفي باحثة متخصصة في أخلاقيات الذكاء الاصطناعي، وجدت في استخدام روبوت الدردشة لرموز «الإيموجي» ما يبعث على القلق. لقد ركزَتْ النقاشات العامة التي دارت حول الجوانب الأخلاقية لاستخدام الأنظمة القائمة على «الذكاء الاصطناعي التوليدي» generative AI على قدرة هذه الأنظمة على اختلاق معلومات مضلِلة، وعرضها بشكلٍ مُقنع؛ وهو تركيزٌ في محلِّه، وينصبُّ على مسألةٍ تثير قلقي أيضًا. غير أن ثمة مسألةً أخرى لا تحظى بالزخم نفسه، وهي إمكانية أن تنخرط روبوتات الدردشة في ممارسات تنطوي على تلاعُب عاطفيّ.

إذا نظرنا إلى اثنين من روبوتات الدردشة (هما «تشات جي بي تي» ChatGPT، وهو روبوت دردشة أطلقَته شركة البرمجيات «أوبن إيه آي» OpenAI، ومقرها سان فرانسيسكو بولاية كاليفورنيا الأمريكية؛ وروبوت الدردشة المُدمَج في المحرِّك البحثي «بِنج»، الذي يستعين بنسخة من «جي بي تي-3.5» GPT-3.5؛ النموذج اللغوي الذي يعمل به «تشات جي بي تي»)، قد اختلقا معلومات مضلِلة. والحقُّ أن تصميم روبوتات الدردشة الآن يقوم في جوهره على محاكاة الأشخاص.

في بعض الوجوه، ترى روبوتات الدردشة قريبة الشبه بالبشر؛ فتُجيب عن الأسئلة كما لو كانت لديها خبرات شعورية. لكنها، في وجوه أخرى، تراها أبعد ما تكون عن البشر؛ باعتبار أنها، في نهاية الأمر، ليست كائناتٍ مكلَّفةً أخلاقيًا، ولا يمكن أن تُحمَّل مسؤولية أفعالها. ومعنى ذلك أن مثل هذه الأدوات القائمة على الذكاء الاصطناعي من القوة بحيث يمكن أن تؤثر في البشر، إلا أنها لا تتحمَّل مسؤولية أفعالها.

ومن هنا، فلابد من وضع قيود على قدرة الذكاء الاصطناعي على إثارة مشاعر البشر. ولتكُن البداية بالعمل على ضمان عدم استخدام روبوتات الدردشة للغة مثيرة للعاطفة، ومنها رموز «الإيموجي»، لما لهذه الرموز من قدرة عالية على التلاعب بالمشاعر. يستجيب البشر غريزيًّا للأشكال التي تبدو مثل الوجوه، حتى الأشكال الكرتونية أو البيانية، ويمكن لرموز «الإيموجي» تحفيز تلك المشاعر. عندما ترسل لصديقك مزحةً، فيرُدُّ عليك بثلاثة رموز من الوجه التعبيري (الإيموجي) الذي تتفجَّر الدموع من عينيه من شدة الضحك، فإن جسمك يستجيب بإفراز «الإندورفينات» endorphins وهرمون «الأوكسيتوسين» oxytocin؛ إذ تبتهج لعلمك أن صديقك مسرور.

وأكبر الظن أن رد فعلنا الغريزي تجاه رموز «الإيموجي» التي تبعث بها أدوات الذكاء الاصطناعي سيكون هو نفسه، حتى مع علمنا أنه لا توجد مشاعر بشرية على الجانب الآخر من المحادثة. يمكن أن ننخدع فنستجيب لجمادٍ لا حياةَ فيه، أو حتى نتعاطف معه. لك أن تعلم، على سبيل المثال، أن الأشخاص يدفعون مبالغ أكثر مقابل الشاي والقهوة في نظام الشراء الحر – أي الذي لا يخضع للإشراف – عندما يشعرون أنهم مراقبون؛ ولو لم يكن هذا الرقيب إلا صورة عينين (M. Bateson et al.Biol. Lett.2, 412–414; 2006).

صحيحٌ أن روبوت الدردشة الذي لا يستخدم رموز «الإيموجي» يظل قادرًا على استخدام الكلمات للتعبير عن المشاعر؛ لكن يمكن القول إن لرموز «الإيموجي» أثرًا في النفس أقوى من الكلمات. وهل أدلّ على ذلك من أن تطوير الوجوه التعبيرية جاء مصاحبًا لظهور الرسائل النصية؟ وهل كنا – جميعًا - لنستخدم رموز «الإيموجي» الضاحكة لولا أن الكلمات لا تبدو كافية لنقل مشاعرنا؟

لم يخلُ العالم يومًا – ولن يخلو من بَعدُ – من شخصٍ يكذب على آخر، ويتلاعب بمشاعره؛ لكن يمكننا، على الأقل، إعمال العقل في تخمين دوافعه، وأهدافه، وأساليبه. يمكن لأحدنا أن يحمِّل الآخر مسؤولية تلك الأكاذيب، والبوح بها، والمطالبة برد اعتبار. أما مع الذكاء الاصطناعي، فلا يمكننا فعل شيءٍ من ذلك. الروبوتات التي تعمل بالذكاء الاصطناعي، بهذا المعنى، مخادعة خداعًا مضاعَفًا: فالروبوت الذي يرسل رمز «إيموجي» يبكي من الفرحة لا يبكي في واقع الحال من الفرحة أولًا، ولم يُؤتَ القدرة على أن يُحسَّ أيًّا من هذين الشعورين ثانيًا.

ما يقلقني أن تقنيةً كهذه، في غياب وسائل الحماية المناسبة، قد ينتهي بها الحال إلى الانتقاص من استقلالية الأفراد. فالروبوتات التي تعمل بالذكاء الاصطناعي، وتستطيع التعبير عن المشاعر، قد تُغرينا إلى ارتكاب أخطاء ضارَّة، من خلال تسخير قوة استجاباتنا الشعورية. ومخاطر ذلك جَلِيّة بالفعل. عندما طلبَت طفلة، تبلغ من العمر عشرة أعوام، أن تتحدى «أليكسا» Alexa، المملوكة لشركة «أمازون»، طلبَتْ منها الأخيرة أن تلمس بقطعة نقود صغيرة مقبسًا كهربائيًا نشطًا. لحسن الحظ، لم تُجِب الطفلةُ «أليكسا» إلى طلبها، لكن لا يبعُد أن يكون الذكاء الاصطناعي التوليدي أقدَرَ على الإقناع. ولا يلزَم أن يكون الأمر بهذه المأسوية: ربما تهكَّم بك الذكاء الاصطناعي إلى الحد الذي تشعر معه بالخزي، فتندفع إلى شراء منتَج باهظ الثمن، وإنْ لم تكن في حاجةٍ إليه. قد تعتقد أنك في مأمنٍ من هذا كله، لكنَّ دراسةً أظهرت في عام 2021 أن الناس عادةً ما يقللون من تقدير احتمالات تعرضهم للمعلومات المضلِلة (N. A. Salovich and D. N. Rapp J. Exp. Psychol. 47, 608–624; 2021).

كان من الأفضل، من الناحية الأخلاقية، أن تُصمَّم روبوتات الدردشة بحيث تختلف عن البشر اختلافًا واضحًا. فلكي نقلِّل من إمكانية التلاعب ووقوع الضرر، نحتاج إلى من يذكِّرنا بأننا إنما نتحدث إلى روبوت.

قد يرى البعض أن الشركات ليس لديها حافز كافٍ لتحجيم استخدام رموز «الإيموجي»، واللغة المعبِّرة عن المشاعر عمومًا، من قِبَل روبوتات الدردشة الخاصة بها، إذا كان من شأن ذلك أن يضاعف حجم المشاركة، أو إذا وجد المستخدمون متعةً عندما يلاطفهم الروبوت مثلًا. لكننا وجدنا استجابة من شركة «مايكروسوفت»؛ فبعد نشر مقال صحيفة «ذا نيويورك تايمز» آنف الذِّكر، توقف روبوت الدردشة المُدمَج في المحرِّك البحثي «بِنج» عن الاستجابة لأسئلة المشاعر. كما نلاحظ أن روبوت الدردشة «تشات جي بي تي» لا يستخدم رموز «الإيموجي» من تلقائه. فعند سؤاله: "هل لديك مشاعر؟"، ستكون إجابته: "باعتباري نموذجًا لغويًّا يعمل بالذكاء الاصطناعي، ليس لديّ مشاعر أو عواطف كتلك التي يملكها البشر".

قواعد كهذه ينبغي أن تُتخذ معيارًا حاكمًا لعمل روبوتات الدردشة التي من المفترض أن تمدَّنا بالمعلومات، ليكون ذلك بمثابة ضمانٍ لاستقلاليتنا. والصعوبات التنظيمية التي يطرحها الذكاء الاصطناعي من الكثرة والتعقيد بحيث ينبغي أن تكون لدينا هيئة حكومية مخصصَّة للتصدي لها.

وينبغي أن تنظر شركات التكنولوجيا إلى الإرشادات التنظيمية باعتبارها أنها تصب في مصلحتها. صحيحٌ أن روبوتات الدردشة المعبِّرة عن المشاعر قد تدرُّ على الشركات أرباحًا في المدى القصير، إلا أن التقنيات التي تقوم على التلاعب والخداع تمثل خرقًا أخلاقيًا وشيكًا. وقد رأينا كيف أن شركة «جوجل» فقدَت من قيمة أسهُمها مئة مليار دولار عندما وقع روبوت الدردشة التوليدي القائم على الذكاء الاصطناعي «بارْد» Bard، الذي طوَّرته الشركة، في خطأ معلوماتي في موادها الإعلانية. والشركة المسؤولة عن الضرر الخطير، الناجم عن نظام ذكاء اصطناعي لا يستنكف الخداع والتلاعُب، يمكن أن تُمنَى بخسارة أكبر من ذلك بكثير. ومن هذا المنطلق، تُزمع المملكة المتحدة، على سبيل المثال، إصدار قوانين تحمِّل المسؤولين التنفيذيين لمنصات التواصل الاجتماعي المسؤولية، إذا أخفقوا في حماية الأطفال من المحتوي الضار على منصّاتهم.

مراعاة الاعتبارات الأخلاقية سوف تصبُّ في مصلحة الأعمال التجارية على المدى البعيد. وسوف تسنح لشركات التكنولوجيا فرصة أفضل لطرح منتجات تتسق مع الاعتبارات الأخلاقية – بل وتنمية النشاط التجار – إذا ابتعدت عن الخداع والتلاعب.

اضف تعليق