q
منوعات - معلوماتية

العصر القادم لبروباغندا الذكاء الاصطناعي

كيفية التصدي للمعلومات المضللة الفائقة القوة

مع اجتياح أدوات الذكاء الاصطناعي العالم يصعب اليوم تخيل ألا يعمد أصحاب البروباغندا السياسية إلى استخدامها في الكذب والتضليل، ومن أجل الاستعداد لهكذا احتمال يتوجب على الحكومات والشركات ومنظمات المجتمع المدني تطوير معايير وسياسات في استخدام النصوص المولدة بواسطة الذكاء الاصطناعي، وتحديث التقنيات المعدة لتعيين أصول ومراجع النصوص...
بقلم: جوش أ. غولدشتين، غيريش ساستري

بعد سبع سنوات من تدخل عملاء روس في الانتخابات الرئاسية الأميركية عام 2016 من طريق انتحالهم صفة أميركيين بواسطة آلاف الحسابات المزيفة في منصات التواصل الاجتماعي، برزت في صدارة المسرح العالمي تكنولوجيا جديدة أخرى قادرة على تسريع انتشار البروباغندا (الدعاية السياسية) تتمثل في الذكاء الاصطناعي أو الـ "إيه آي" AI، ويتعلق جزء كبير من القلق الذي عبر عنه إزاءها بأخطار ظهور "مقاطع تزييف معمق" لمواد صوتية وصورية، تستخدم الذكاء الاصطناعي بغية خلق صور مزيفة ووقائع لم تحدث في الحقيقة.

لكن هناك قدرة أخرى يتمتع بها الذكاء الاصطناعي لا تقل إقلاقاً من ما نذكره، إذ إن الباحثين حذروا طوال سنوات من أن أنظمة الذكاء الاصطناعي التوليدية والمدربة لتوليد نصوص لغوية أصيلة، باختصار "النماذج اللغوية" Language Models، يمكن أن تستخدم من أعداء الولايات المتحدة في شن حملات تأثير [بهدف تشويش الرأي العام]، والآن تبدو هذه النماذج على أعتاب تمكين المستخدمين من توليد إمدادات من النصوص الأصيلة Original text تكاد تكون لا محدودة في مقابل جهد بشري ضئيل، وهذا من شأنه زيادة قدرة محترفي الدعاية السياسية (بروباغندا) في إقناع الناخبين المترددين واكتساح فضاء المعلومات على الإنترنت وخلق هويات شخصية لرسائل البريد الإلكتروني الاحتيالية، ويبدو الخطر هنا مضاعفاً إذ إن نماذج اللغة لا يسعها التأثير في القناعات وحسب، بل يمكنها أيضاً إفساد ثقة الجمهور والرأي العام بالمعلومات التي يعتمد عليها الناس في بناء الأحكام واتخاذ القرارات.

لقد تجاوز تطور أبحاث الذكاء الاصطناعي التوليدي التوقعات كلها، ففي السنة الماضية استخدمت النماذج اللغوية لتوليد بروتينات وظيفية [أي أنها بروتينات أساسية تنتجها الجينات كي تسهم في تأدية وظائف معينة مثل الهيموغلوبين الذي يحمل الحديد في الدم]، ومقارعة لاعبين بشر وإلحاق الهزيمة بهم في ألعاب إستراتيجية تتطلب تفاعلات متبادلة [مثل الشطرنج ولعبة غو الصينية]، وصنع مساعديين آليين على الإنترنت [المساعد الآلي هو برنامج يتولى وظائف روتينية توكل إليه مثل التذكير بالاحتفالات أو أوقات العمل والعطل وغيرها].

وبين ليلة وضحاها باتت النماذج اللغوية التحاورية تستخدم على نطاق واسع، وبعد نحو شهرين من إطلاقه في ديسمبر (كانون الأول) 2022 عمد أكثر من 100 مليون شخص إلى استخدام برنامج "تشات جي بي تي" ChatGPT الذي تصنعه شركة "أوبن إي آي" OpenAI، وكذلك يرجح أن ملايين الأشخاص الآخرين استخدموا أدوات الذكاء الاصطناعي التي طرحتها شركتا "غوغل" و"مايكروسوفت" إثر انطلاق "تشات جي بي تي".

وبالنتيجة فإن الأخطار التي كانت قبل سنوات قليلة تبدو نظرية باتت الآن واقعية على نحو متزايد.، فمثلاً هناك روبوت المحادثة "تشاتبوت" Chatbot الذي يشتغل بالذكاء الاصطناعي وأدخل إلى عمل محرك البحث "بينغ" Bing، وقد ظهر أنه يقدر على التلاعب بالمستخدمين بل وحتى تهديدهم.

ومع اجتياح أدوات الذكاء الاصطناعي العالم يصعب اليوم تخيل ألا يعمد أصحاب البروباغندا السياسية إلى استخدامها في الكذب والتضليل، ومن أجل الاستعداد لهكذا احتمال يتوجب على الحكومات والشركات ومنظمات المجتمع المدني تطوير معايير وسياسات في استخدام النصوص المولدة بواسطة الذكاء الاصطناعي، وتحديث التقنيات المعدة لتعيين أصول ومراجع النصوص، وتحديد إذا ما كان النص مبتكراً بواسطة الذكاء الاصطناعي أم لا، وكذلك يمكن لجهود يبذلها صحافييون وباحثون في الكشف عن الحسابات المزورة والوهمية على منصات التواصل الاجتماعي ومواقع الأخبار الكاذبة، أن تقلص أيضاً انتشار حملات البروباغندا السياسية المبطنة، بغض النظر عن كون محتواها مكتوباً من بشر أو بواسطة الذكاء الاصطناعي.

مصانع اللغة

يُعرف النموذج اللغوي بأنه نظام ذكاء اصطناعي مدرب عبر تكرار المحاولة والخطأ وعلى هضم النصوص وتوليدها، ويتضمن جزء كبير من التدريب عملية توقع الكلمة التالية في سياق نص كبير مطول، وإذا جاء التوقع خاطئاً يتعرض النموذج للمعاقبة، وإذا جاء التوقع صحيحاً يكافأ النموذج، وللمفاجأة فقد أثمرت هذه العملية البسيطة نتائج كفوءة. أطلب من النموذج اللغوي أن يعيد كتابة تغريدة بعبارات مختلفة أو أن يؤلف نصاً لمدونة يتضمن نقاط محددة، وسينفذ ما طلبته منه، ولقد تعلمت النماذج اللغوية إنجاز أشياء مفاجئة لم يتوقعها حتى أولئك الذين دربوها، وتتضمن تلك الأشياء فك تشابك الكلمات وأداء عمليات حسابية لأرقام مؤلفة من ثماني خانات وحل مسائل في الرياضيات حينما تصاغ بالكلمات [أي حينما لا تكون مصاغة بالأرقام أو بالخطوط والرسوم]، ولا يمكن للباحثين أن يتوقعوا بموثوقية تامة القدرات التي قد تتحلى بها النماذج اللغوية مستقبلاً.

بالطبع ثمة محدودية للنماذج اللغوية الموجودة حاضراً إذ يجهد حتى الأكثر تطوراً من بينها في الحفاظ على التماسك في المقاطع النصية المطولة، ويرتكب أخطاء أو يورد أقوالاً وعبارات عبثية (الظاهرة التي يطلق باحثو الذكاء الاصطناعي عليها تسمية ’هلوسة‘)، ويخفق في التعبير عن أمور حصلت بعد انتهاء عملية التدريب التي تلقاها، وعلى رغم هذه المحدودية يمكن للنماذج أن تولد نصاً يبدو كأنه مكتوب من بشر، ويجعلها تلقائياً أداة تستخدم لإنتاج نمط جديد ومتطور من البروباغندا، وبالتالي سينجذب صناع الدعاية السياسة بصورة مطردة إلى استخدام هذه الأداة حين تشهد مزيداً من التطور ويجري تجاوز المشكلات التي تعانيها مثل مشكلة الهلوسات، كأن يحصل ذلك عبر تدريبها على البحث عن المعلومات قبل الرد على الاستفسارات والأوامر.

،، مع روبوتات الدردشة التي تعمل بالذكاء الاصطناعي يمكن لصناع البروباغندا التواصل مع المستهدفين على نحو شخصي ،،

تصوروا الآن ما يمكن للذكاء الاصطناعي أن يفعله بحملات الدعاية السياسية الموجودة.

لقد كتبت الصحافية الروسية كزينيا كلوتشكوفا عن تجربتها في التخفي والعمل ليوم كامل في شركة "سايبر فرونت زي" Cyber Front Z، "مزرعة الشائعات الاستفزازية" المتمركزة في مدينة سان بطرسبرغ والتي تنشر البروباغندا المتعلقة بحرب روسيا في أوكرانيا، وفي تحقيق نشرته في مارس (آذار) 2022 كتبت كلوتشكوفا إنها كانت واحدة من 100 موظف يعملون بالتناوب ويتلقون أجراً لكتابة بوستات قصيرة على مواقع تواصل اجتماعي محددة تروج لأجندة موسكو، وبعد الشهر الأول أمكن للموظفين الذهاب بعيداً متيحين للعملية (بث الشائعات الاستفزازية) أن تتجاوز حدودها الوضعية المرسومة.

إذاً يمكن الحديث عن إمكان استخدام النماذج اللغوية لتعزيز الكتاب البشر أو للحلول مكانهم في توليد محتوى من ذلك النوع، وبالتالي تسهم تلك النماذج في تقليص عدد الموظفين في "سايبر فرونت زي" وغيرها من "مزارع الشائعات الاستفزازية" الناشطة، ومع تراجع كُلف إدارة هكذا أنشطة قد يقرر مزيد من اللاعبين السياسيين رعاية أو تشغيل عمليات وحملات تأثير مشابهة، وكذلك يؤدي تقليص عدد المشغلين المطلوب في هذه الحملات إلى التقليل من احتمالات انكشافها كونها ستوظف عدداً أقل من الأشخاص الذين يمكن أن يسربوا معلوماتها أو يتجسسوا عليها.

كذلك فإن الأسباب التي قد تجعل من النماذج اللغوية مفيدة لأنشطة كعمليات "سايبر فرونت زي"، أي القدرة بكلفة قليلة على توليد محتوى قابل للانتشار على نحو واسع ولا يمكن تمييزه عن نصوص كتبها بشر، هي نفسها الأسباب التي قد تجعلها مفيدة في مجالات أخرى لم يحسب حسابها في مجال الذكاء الاصطناعي حينما صممت، ففي العام 2020 أجرى الباحثان سارة كريبس ودوغلاس كراينر بإجراء اختبار قضى بتوجيه رسائل كتبت بواسطة بشر وأخرى بتقنية الذكاء الاصطناعي إلى مشرعين أميركيين على اعتبار أنها رسائل من ناخبين، وقد وجد الباحثان أن المشرعين الذين تلقوا الرسائل أجابوا على تلك المكتوبة بواسطة الذكاء الاصطناعي بمعدل أقل بنقطتين من معدل إجابتهم على الرسائل المكتوبة من بشر، لذا فثمة خطر يتمثل في إمكان استخدام النماذج اللغوية بغية انتهاك أو حتى إنهاك الأنظمة التي تستقبل مداخلات من الجمهور، وذلك أمر يقوض المسؤولية الديموقراطية العامة في حال عانى المسؤولون المنتخبون صعوبة في تمييز الآراء الحقيقية لناخبيهم، أو إن فشلوا ببساطة في التعامل مع بريدهم الإلكتروني الطافح بالرسائل.

لا يقصد بهذا الكلام القول إن النماذج اللغوية بالضرورة ستنهك الأنظمة في كل مكان، ففي بعض الحالات أثبتت تلك النماذج عدم كفاءتها، فقد نشر موقع أخبار "سي نت" CNET المتخصص بالتكنولوجيا عشرات المقالات الإخبارية المولدة بواسطة الذكاء الاصطناعي ليكتشف في ما بعد أن عدداً منها جاء مليئاً بالأخطاء من ناحية الوقائع، وفي مثل آخر اضطرت "ستاك أوفرفلو" Stack Overflow، المنصة التي تمكن المبرمجين من الإجابة عن أسئلة بعضهم بعضاً، إلى أن تحظر المستخدمين من اعتماد "تشات جي بي تي" ChatGPT لأنه استمر في تقديم أجوبة مغلوطة، لكن مع تطور النماذج اللغوية فإن تمييز وتعيين نتاجاتها النصية سيزدادان صعوبة بالاستناد إلى المحتوى وحده، وسيتوجب على مؤسسات مختلفة ومتنوعة تشمل منصات التواصل الاجتماعي والوكالات الحكومية التي تسعى إلى الحصول على تعليقات الجمهور العام اختبار مدى تعرضها للإنهاك أمام هجمات المحتوى النصي المولد بالذكاء الاصطناعي، وإذا وجدت نفسها هشة في هذا الجانب فسيتوجب عليها تقوية دفاعاتها.

صنعت خصيصاً لك

لا يتوقف تأثير النماذج اللغوية عند احتمال إنتاج مزيد من الدعاية السياسية بكلف منخفضة، بل قد تعمل أيضاً على تحسين مستوى البروباغندا من خلال تصميمها خصيصاً لاستهداف جماعات محددة، ففي سنة 2016 حاول موظفو "مزرعة إشاعات استفزازية" روسية تعرف بـ "وكالة أبحاث الانترنت" (Internet Research Agency) زرع أنفسهم ضمن جماعات محددة على الإنترنت، وتظاهر أولئك الموظفون بأنهم سود أميركييون يساريو الهوى، وكذلك تنكروا بهيئة مجموعات أميركية بيضاء تناصر ترمب لنشر بروباغندا موجهة خصيصاً لتلك الجماعات، إلا أن هكذا جهود مخصصة لجهات بعينها تبقى محدودة بنطاق انتشار العملاء ومدى معرفتهم بالجماعات المستهدفة، وهناك كثير من مواد الدعاية السياسية التي يتوجب عليهم كتابتها، وثمة عدد كبير من الجماعات التي ينبغي منهم درسها، لكن مع تطور النماذج اللغوية فمن شأن تلك الحدود أن تتهاوى، وفي أوقات سابقة أظهر بحث أن النماذج اللغوية يمكنها الاستخلاص من التجربة الاجتماعية - الثقافية لجماعة ديموغرافية بعينها، وإظهار أشكال التحيز لدى تلك الجماعة، وبحصولها على معلومات حساسة عن الجماعات في المجتمع الأميركي من خلال الاستطلاعات ووسطاء البيانات ومنصات التواصل الاجتماعي فقد تتمكن النماذج اللغوية المستقبلية من تطوير المحتوى الذي تنتجه وتُكسِبه شخصية متناسقة، مما يتيح لصناع البروباغندا بناء صدقية تجاه الجمهور المستهدف من دون معرفة مسبقة وحقيقية بذاك الجمهور، وقد تستطيع تلك البروباغندا المشخصنة أن تكون فاعلة خارج نطاق منصات التواصل الاجتماعي أيضاً وذلك مثلاً عبر مواقع إخبارية أو رسائل إلكترونية تكون مصممة على قياس من توجه لهم.

وكذلك قد يتمثل النمط الأكثر تطرفاً من عمليات الشخصنة هذه بالمحادثات المباشرة بين طرفين، إذ يستطيع صناع البروباغندا استعمال روبوتات الدردشة التي تعمل بالذكاء الاصطناعي في التواصل مع المستهدفين بطرق مُشخصنة ومقاربة ما يشغلهم أو الرد على الطروحات المتداولة مباشرة، مما يؤدي إلى زيادة فرصهم [صناع البروباغندا] في الإقناع (أو في الأقل التشويش على القناعات).

في الوقت الحالي يتوجب الحصول على موارد مكثفة لإمداد كل عملية تأثير تطلق بالاستناد إلى حوار متواصل بين أشخاص يصنعون البروباغندا وبين الجمهور الواسع، لكن في المستقبل حين تغدو النماذج اللغوية أكثر إقناعاً وأقل كلفة ستصبح هكذا حملات ممكنة بمساعدة الذكاء الاصطناعي، وقد بات من الصعب بالفعل التفريق على الإنترنت بين المتحاورين البشر وبين المتحاورين الآليين، وقد أظهر مشروع بحثي حديث أن كياناً يشتغل بواسطة الذكاء الاصطناعي قد صنف ضمن نخبة الـ 10 في المئة من المشاركين في نسخة على الإنترنت من لعبة "دبلوماسية" Diplomacy الكلاسيكية التي تتطلب تفاوضاً مع أشخاص حقيقيين بغية تشكيل تحالفات، وإذا كان ممكناً اليوم تدريب النماذج اللغوية على إقناع اللاعبين في التحالف ضمن لعبة ما فإن النماذج المستقبلية قد تكون قادرة على إقناع الناس للقيام بأفعال فعلية مثل الانضمام إلى مجموعة على "فيسبوك" أو توقيع عريضة أو حتى النزول إلى تظاهرة.

وبغية فهم مدى سرعة التطور الذي تشهده النماذج اللغوية اليوم خذوا مثلاً نماذج "غوغل" الأحدث المعروفة بـ "فلان- بال أم" Flan-PalM، إذ يستطيع هذا النموذج تقديم إجابة صحيحة على تسعة أسئلة من أصل 10 تقريباً في "امتحان الترخيص الطبي الأميركي" (الامتحان الذي يخضع له الأطباء لممارسة مهنتهم)، وكذلك يمكن للنموذج حل المسائل الحسابية والإجابة عن أسئلة تتعلق بالفيزياء وكتابة الشعر، وقد تمثل أنظمة الذكاء الاصطناعي أدوات خطرة في أيدي أصحاب البروباغندا، وهي آخذة في اكتساب مزيد من القوة.

منتهكو الأمانة

وبوسع المرء منطقياً أن يسائل عن خطورة البروباغندا التي تطرحها النماذج اللغوية، وذلك بالنظر إلى مدى المبالغة التي أبداها المحللون مراراً تجاه أدوار التكنولوجيا الجديدة في مجال الأمن القومي، إذ إن المعلقين في نهاية المطاف حذروا من احتمال إساءة استخدام أجيال النماذج اللغوية السابقة بهذه الطريقة، لكن ليس هناك سوى أدلة عامة ضئيلة تشير إلى قيام دول بتجريد حملات تأثير تستند إلى الذكاء الاصطناعي بواسطة هذه الأدوات.

بيد أن غياب الدليل على هكذا حملات لا يشكل دليلاً قوياً على عدم وجودها، وأمام عدم توافر دليل علني يشير إلى استخدام النماذج اللغوية في حملات تأثير فما من دليل أيضاً يشير إلى عدم استخدامها لهذه الغاية، ولم يبدأ الباحثون في مسألة المعلومات المضللة بالانتباه إلى النماذج اللغوية إلا في الآونة الأخيرة.

وكذلك فإن افتراض أن النماذج اللغوية لم تستخدم في حملات تأثير سابقة لا يضمن عدم استخدامها في هكذا حملات مستقبلاً. لقد طُورت إحدى التقنيات المعروفة لابتكار وجوه بواسطة الذكاء الاصطناعي للمرة الأولى عام 2014، لكن الباحثين انتظروا حتى عام 2019 كي يتمكنوا من اكتشاف صور مبتكرة بواسطة الذكاء الاصطناعي في حسابات شخصية تعمل ضمن حملة تأثير، وفي 2022 تبين أن أكثر من ثلثي حملات التأثير التي اكتشفتها ثم حذفتها شركة "ميتا" Meta الشركة التي باتت الأم لـ "فيسبوك"، تضمنت وجوهاً مزيفة.

لقد تطلب الأمر حصول تطورات وتسهيلات في هذه التكنولوجيا كي ينخرطوا في ممارسة الاستفادة منها، وقد يحصل الأمر ذاته بالنسبة إلى النماذج اللغوية، وتستثمر الشركات اليوم في تحسين ما يمكن أن تنتجه النماذج اللغوية مع تسهيل استخدامها، وذلك لن يسهم إلا في جعلها أكثر جاذبية بالنسبة إلى صناع البروباغندا.

ثمة سبب آخر للتخوف من أن تشكل النماذج اللغوية خطراً كبيراً من ناحية فاعلية حملات البروباغندا عموماً، فقد وجدت إحدى الدراسات التي تناولت جهود "وكالة أبحاث الإنترنت" على "تويتر" ونشرت على موقع "نايتشر كوميونيكايشنس" Nature Communications [جزء من موقع مجلة "نايتشر" العلمية الشهيرة]، أنه "ليس هناك دليل على علاقة ذات دلالة بين التعرض لحملة التأثير الخارجية الروسية [إبان انتخابات الرئاسة الأميركية عام 2016] وبين تبديل المواقف (الانتخابية) وظاهرة الاستقطاب أو الممارسات الاقتراعية". وفي هذا السياق أبدى الباحث المتخصص في العلوم المعرفية هوغو ميرساير رأياً يتفق مع ما أظهرته تلك الدراسة، إذ رأى أن الناس عموماً أقل سذاجة مما يسود الاعتقاد به، لكن حتى لو أخفق أصحاب الدعاية السياسية في التأثير والإقناع في غالب الأحيان فإنهم قد يبقون قادرين على النجاح في مزاحمة النقاشات التلقائية الطبيعية وتقويض عامل الثقة عند الرأي العام، فمثلاً بعد أن أسقط الانفصاليون في أوكرانيا المدعومين من روسيا طائرة الخطوط الجوية الماليزية رحلة الـ 17 من يوليو (تموز) 2014، أصدر وزير الدفاع الروسي مزاعم متناقضة حول هوية مسقطي الطائرة والطريقة التي أسقطت بها، ويبدو أن الهدف لم يكن متعلقاً بإقناع الناس بأي من السرديات التي أطلقها الوزير بل بتعكير المياه وإبعاد اللوم من موسكو، لذا فإذا اكتسح أصحاب البروباغندا فضاءات الإنترنت وأغرقوها بالبروباغندا المولدة بواسطة الذكاء الاصطناعي، فسيمكنهم نشر الارتياب وتصعيب الوصول إلى الحقيقة، وفي تلك الحال سيبدأ الناس في الشك حتى في ما يشاهدونه بأعينهم، وتأخذ قناعتهم بالواقع المشترك في التآكل.

لتبقى الأشياء حقيقية

على رغم إمكان تحول النماذج اللغوية إلى أدوات بروباغندا فاعلة إلا أنه ليس من الضرورة أن تقود إلى نهاية زمن المعلومات، ويحتاج صناع البروباغندا إلى ثلاثة أشياء في الأقل كي ينهضوا بحملة تأثير ناجحة مشغلة بواسطة الذكاء الاصطناعي.

أولاً يحتاجون إلى الوصول لنموذج لغوي صالح للخدمة يمكنهم ابتكاره من الصفر أو سرقته أو الحصول عليه من مواقع المصادر المفتوحة (على الإنترنت)، أو الحصول عليه من أحد مقدمي خدمة الذكاء الاصطناعي.

ثانياً يحتاجون إلى بنى تحتية كأن تكون مواقع إلكترونية أو حسابات مزيفة على شبكات التواصل الاجتماعي بغية نشر دعاياتهم السياسية.

وأخيراً يحتاجون إلى بشر حقيقيين يتأثرون بحملاتهم أو في الأقل يتشوشون أو يغضبون ويتوترون من المحتوى الذي ينشره صناع البروباغندا، وفي كل مرحلة من هذه العملية يكون لدى الحكومات والشركات وخبراء التكنولوجيا فرص للتدخل وتقليص الأذى الذي تسببه هكذا حملات.

في مرحلة الوصول [إلى النموذج اللغوي الذي يصلح لأعمال البروباغندا] تظهر مجموعة من الخيارات إما في التحكم باستخدام النماذج اللغوية أو تقليص قدرتها على إنتاج مواد خطرة، وعلى رغم أن الشائع في عالم الذكاء الاصطناعي اليوم يتمثل بنشر نماذج المصادر المفتوحة على نحو واسع تماشياً مع الروحية العلمية، إلا إنه قد يكون من الحكمة التفكير بطريقة تصعب وصول صناع البروباغندا إلى القدرات التي يحتاجونها، وقد تتمثل إحدى الطرق لإنجاز ذلك بالتحكم بالنماذج اللغوية الكامنة خلف واجهة برمجة التطبيقات، وهي طبقة من البرمجيات تؤدي دور البوابة بين المستخدمين وبين النماذج اللغوية، وبالتالي سيتيح ذلك لصانعي خدمات الذكاء الاصطناعي (وربما آخرين) إيقاف أصحاب البروباغندا المحتملين وكشفهم والتصدي لهم، وثمة خيار آخر يتمثل بتطوير نماذج لغوية أكثر دقة مما يخفض إمكان أن تُنتج مواداً إشكالية، وقد شرع باحثون في فعل ذلك حاضراً.

كذلك يستكشف الباحثون إمكان خلق نماذج لغوية مع وضع علامات مائية رقمية عليها كي يسهل التعرف على المحتوى الذي تنتجه، وعلى مستوى البنى التحتية فبوسع شركات الإعلام ومحركات البحث العمل استباقياً لتحديد المحتوى المنتج بواسطة الذكاء الاصطناعي والطلب من المستخدمين فعل الشيء نفسه، وكذلك يمكن للشركات ومحركات البحث إتاحة إمكان تطبيق معايير مصادر رقمية على النصوص مما يتيح للناس معرفة كيفية إنتاج النص، على غرار معرفة من ألّفه وإن كان قد أنتج بواسطة الذكاء الاصطناعي أم لا. وعلى رغم الصعوبة التي تتسم بها عملية تطبيق هذه المعايير راهناً إلا أن إجراء مزيد من الأبحاث قد يمهد الطريق لتسهيل تطبيقها.

أخيراً تحتاج المجتمعات إلى بناء قدراتها في التكيف والمرونة ضمن أوساط المستخدمين الآمنين على وسائط التواصل الاجتماعي وعموم شبكة الإنترنت، ومثلاً أدخل التثقيف الوسائطي في فنلندا في المناهج التعليمية المدرسية، وفي سن باكرة يتعلم الفنلنديون تحليل الأخبار التي يستهلكونها والتدقيق بالحقائق عبر مراجعة مصادر عدة، وبوسع هكذا جهود أن تساعد الناس في التمييز بين الأخبار الحقيقية والملفقة، فيغدون أقل عرضة للوقوع ضحايا محتوى غير موثوق سواء كان هذا المحتوى من إنتاج بشر حقيقيين أو ذكاء اصطناعي.

كذلك بوسع الذكاء الاصطناعي نفسه أن يكون عاملاً دفاعياً، ومع تنامي قدرات النماذج اللغوية سيغدو بوسعها أن تبدأ بمساعدة المستخدمين في تحديد سياقات المعلومات التي يعاينونها أو حتى فهمها.

واستطراداً يحتاج صعود نماذج الذكاء الاصطناعي اللغوية إلى تفكر أوسع، وتشمل الأسئلة الأساس التي ينبغي على المجتمعات الإجابة عنها، من ينبغي أن يتحكم بالوصول إلى هذه النماذج؟ من يتعرض للخطر بسببها؟ وهل المحادثات التي يقدمها الذكاء الاصطناعي مقلداً بها البشر مرغوبة أصلاً؟ وعلى رغم الصعوبة التي سيتسم بها استشراف تأثيرات النماذج اللغوية المستقبلية يبقى من المؤكد أنها ستتخطى كثيراً المختبرات التي ابتكرت فيها، لذا ينبغي أن يكون للحكومات والشركات والمجتمع المدني والجمهور الواسع كلمة واضحة تجاه طرق تصميم واستخدام هذه النماذج، وكذلك كيفية التعامل مع الأخطار التي تطرحها.

المقال مترجم من فورين أفيرز، أبريل (نيسان) 2023
https://www.independentarabia.com/

...............................................
* جوش أ. غولدشتين باحث زميل ضمن مشروع "الذكاء الاصطناعي السيبراني" في "مركز الأمن والتكنولوجيا المستجدة" بجامعة جورج واشنطن.
* غيريش ساستري باحث ضمن فريق السياسات في "الذكاء الاصطناعي المفتوح المصدر""OpenAI.
تشارك ميكاه موسر ورونيه ديريستا وماثيو غينتزل وكاتيرينا سيدوفا مع الكاتبين في وضع تقرير حمل عنوان "النماذج اللغوية التوليدية وعمليات التأثير المؤتمت، أخطار صاعدة وإمكانات كامنة في تخفيف تأثيرها"Generative Language Models and Automated Influence Operations: Emerging Threats and Potential Mitigations. وقد استقيت هذه المقالة من التقرير المذكور.

اضف تعليق