يراقب العلماء التطور الذي تشهده روبوتات الدردشة، ويخشون أن ينعكس ذلك بالسلب على جودة البحث العلمي ونزاهته، اذ يستطيع روبوت للدردشة (chatbot) قائم على الذكاء الاصطناعي كتابة ملخصات للأوراق البحثية، هي زائفة غير أنها تبلغ حدًّا من الإقناع بحيث لا يستطيع العلماء في أغلب الأحيان كشف زيفها...
بقلم: هولي إلس
يستطيع روبوت للدردشة (chatbot) قائم على الذكاء الاصطناعي كتابة ملخصات للأوراق البحثية، هي زائفة غير أنها تبلغ حدًّا من الإقناع بحيث لا يستطيع العلماء في أغلب الأحيان كشف زيفها، وفقًا لمسوَّدة بحثية نُشرت على خادم المسودات البحثية «بيو أركايف» bioRxiv في أواخر ديسمبر الماضي1 والمجتمع البحثي منقسم حول ما تحمله هذه التطبيقات من تداعيات على العلوم.
تقول ساندرا واشتر، التي تدرس التكنولوجيا وتنظيم استخدامها في جامعة أوكسفورد في المملكة المتحدة، والتي لم تشارك في البحث المذكور: "إنني قلقة للغاية؛ إذا كان الخبراء عاجزين عن تمييز الحقيقي من المزيَّف من الدراسات، فإننا بذلك نفتقد الشخص الذي تشتد حاجتنا إليه ليأخذ بأيدينا إلى فهم المواضيع المعقدة".
في إمكان روبوت الدردشة هذا، واسمه «تشات جي بي تي» ChatGPT، تأليف نصٍّ واقعيٍّ استجابةً لطلبات المستخدمين. إنه واحد من تلك النماذج اللغوي الكبير، وهي أنظمة تعتمد على الشبكات العصبية التي تتعلم أداء مهمة عن طريق معالجة كميات ضخمة من النصوص الحالية التي ألفها البشر. وقد أصدرت شركة البرمجيات «أوبن إيه آي» OpenAI، ومقرها سان فرانسيسكو بولاية كاليفورنيا الأمريكية، هذه الأداة في الثلاثين من نوفمبر الماضي، وأتاحتها للاستخدام بالمجان.
"إذا كان الخبراء عاجزين عن تمييز الحقيقي من المزيَّف من الدراسات، فإننا بذلك نفتقد الشخص الذي تشتد حاجتنا إليه ليأخذ بأيدينا إلى فهم المواضيع المعقدة".
ومنذ صدورها، يشتدُّ الانقسام في أوساط الباحثين حول المسائل الأخلاقية المحيطة باستخدامها؛ إذ تصعُب التفرقة بين كثير من النصوص التي يُنتجها روبوت الدردشة وتلك التي من وضْع البشر. ومما يُذكَر في هذا الصدد أن العلماء نشروا مسوَّدة بحثية2 ومقالة افتتاحية3 هما من تأليف «تشات جي بي تي». ومؤخرًا، استعانت مجموعة بحثية تقودها كاثرين جاو، الباحثة بجامعة نورث ويسترن في شيكاغو بولاية إلينوي الأمريكية، روبوت الدردشة هذا لإنتاج ملخصات مختلَقة لعدد من الأوراق البحثية، لاختبار قدرة العلماء على كشفها.
طلب الباحثون من ربوت الدردشة كتابة 50 ملخصًا لأبحاث طبية، وفقًا لمجموعة مختارة من الأبحاث المنشورة في مجلة «جاما» JAMA، ومجلة «ذا نيو إنجلاند جورنال أوف ميديسِن» The New England Journal of Medicine، ومجلة «ذا بي إم جيه» The BMJ، ومجلة «ذا لانست» The Lancet، ودورية «نيتشر ميديسن» Nature Medicine. ثم كان أن قارنوا هذه الملخصات بالملخصات الأصلية عن طريق إخضاعها لاختبار كشف الاحتيال العلمي (plagiarism)، واختبار آخر لكشف تدخُّل الذكاء الاصطناعي، كما طلبوا من مجموعة من الباحثين المتخصصين في الحقل الطبي تحديد الملخصات المختلَقة.
اجتازت الملخصات المؤلفة باستخدام «تشات جي بي تي» اختبار كشف الانتحال العلمي، فقد بلغت درجة الأصالة في المتوسط 100%؛ ما يشير إلى خلوِّ تلك النصوص من دلائل الانتحال. أما كاشف تدخلات الذكاء الاصطناعي فقد نجح في تحديد 66% من الملخصات المؤلفة بواسطة روبوت الدردشة. وأما المراجعة البشرية فلم تبعُد كثيرًا عن هذه النتيجة، إذ لم تنجح سوى في الكشف عن 68% من الملخصات المولَّدة بواسطة الذكاء الاصطناعي، و86% من الملخصات الحقيقية؛ أي أن البشر، بعبارةٍ أخرى، خطأً رأوا 32% من الملخصات المختلَقة على أنها حقيقية، و14% من الملخصات الحقيقية على أنها مختلَقة.
تقول واشتر إنه ما لم يتمكن العلماء من تمييز الحقيقي من المختلَق، فقد تكون لذلك "عواقب وخيمة"؛ فبالإضافة إلى كونه في ذاته أمرًا إشكاليًا للباحثين – الذين قد يضلُّون السعي في دروب البحث، وما ذلك إلا لأنهم يطالعون أعمالًا علمية مختلَقة – هناك "عواقب تنعكس على المجتمع ككل، بالنظر إلى الدور الكبير الذي يلعبه البحث العلمي في مجتمعنا". وساقت مثالًا على ذلك بقولها إن هذا ربما يعني أن القرارات التي تُؤخَذ في السياسات المختلفة استنادًا إلى المخرجات البحثية ستكون في غير محلها.
ولكن أرفيند نارايانان، عالم الحاسبات في جامعة برينستون في نيو جيرسي، يقول: "ليس من المحتمل أن يستعين أي عالم جادّ بروبوت «تشات جي بي تي» في تأليف الملخصات"، و"ليس السؤال هنا" عما إذا كانت هذه النصوص قابلة أو غير قابلة للكشف، وإنما "السؤال عن مدى قدرة الأداة على الخروج بملخص دقيق ومُقنع. وواقع الأمر أنها تعجز عن ذلك، ومن ثم يكون لاستخدام «تشات جي بي تي» إيجابيات محدودة، وسلبيات معتبَرة".
أما إيريني سليمان، التي تبحث في التأثير الاجتماعي للذكاء الاصطناعي بشركة «هاجينج فيس» Hugging Face، وهي شركة ذكاء اصطناعي لديها مقر في نيويورك وآخر في باريس، فإنها تخشى من مغبَّة الاعتماد – بأي درجة – على النماذج اللغوية الكبيرة في عملية التفكير العلمي. وأضافت: "تُدرَّب هذه النماذج على معلومات سابقة، في حين أن التقدم على الصعيدين الاجتماعي والعلمي يتأتَّى عادةً من التفكير – أو الاستعداد للتفكير – بصورة مفارِقة للماضي".
يقترح مؤلِّفو الدراسة أن تُبادر الجهات القائمة على تقييم الأعمال البحثية، مثل الأوراق البحثية ووقائع المؤتمرات العلمية، بوضع السياسات الكفيلة بحظر استخدام النصوص المولَّدة بواسطة تقنيات الذكاء الاصطناعي. وإذا ارتأت المؤسسات السماح باستخدام هذه التقنيات في حالات محددة، فعليها أن تضع قواعد واضحة تُلزم بالإفصاح عن ذلك. وفي وقتٍ سابق من الشهر الجاري، أعلن القائمون على «المؤتمر الدولي الأربعين حول تعلُّم الآلة»، الذي سيعقد في هونولولو في هاواي في شهر يوليو المقبل، حظر الأوراق المكتوبة باستخدام «تشات جي بي تي» وغيره من الأدوات اللغوية القائمة على الذكاء الاصطناعي.
وأضافت سليمان أنه في المجالات التي يمكن فيها للمعلومات الزائفة أن تُعرِّض سلامة الأشخاص للخطر، مثل الطب، قد يتعين على المجلات والدوريات العلمية اتباع أسلوب أكثر صرامة للتأكد من صحة المعلومات.
يرى نارايانان أن حلول هذه المشكلات يجب ألا تركز على روبوت الدردشة نفسه، "ولكن على الدوافع المنحرفة التي تقود إلى هذا السلوك، على غرار ما نرى في الجامعات التي تجري مراجعات التعيين والترقية اعتمادًا على عدد الأوراق البحثية المقدَّمة، بغض النظر عن جودتها أو تأثيرها".
اضف تعليق