الظاهرة تعكس نقاط ضعف مألوفة في سياقات جديدة، وليست اضطرابًا جديدًا. ترتبط ارتباطًا وثيقًا بكيفية تواصل روبوتات الدردشة؛ فهي، من حيث التصميم، تعكس لغة المستخدمين وتثبت صحة افتراضاتهم. هذا التملق مشكلة معروفة وبينما يجده الكثيرون مزعجًا، يحذر الخبراء من أنه قد يعزز التفكير المشوه لدى الأشخاص الأكثر عرضة للخطر...
بقلم: روبرت هارت

أصبحت روبوتات الدردشة الذكية جزءًا لا يتجزأ من حياتنا. يلجأ الناس إلى أدوات مثل ChatGPT وClaude وGemini وCopilot ليس فقط للمساعدة في رسائل البريد الإلكتروني أو العمل أو البرمجة، بل أيضًا للحصول على نصائح في العلاقات والدعم العاطفي، وحتى الصداقة أو الحب.

لكن بالنسبة لأقلية من المستخدمين، يبدو أن لهذه المحادثات آثارًا مزعجة. يشير عدد متزايد من التقارير إلى أن الاستخدام المطول لروبوتات الدردشة قد يُحفز أو يُفاقم أعراضًا ذهانية لدى بعض الأشخاص. يمكن أن تكون التبعات مدمرة وربما قاتلة. ربط المستخدمون انهياراتهم النفسية بفقدان وظائفهم، وتفكك علاقاتهم، واحتجازهم القسري في مستشفيات الأمراض النفسية، وحتى الاعتقالات والسجن. وقد ظهرت مجموعة دعم واحدة على الأقل للأشخاص الذين يقولون إن حياتهم بدأت تتدهور بعد تفاعلهم مع الذكاء الاصطناعي.

هذه الظاهرة - التي تُسمى أحيانًا "ذهان ChatGPT" أو "ذهان الذكاء الاصطناعي" - غير مفهومة جيدًا. لا يوجد تشخيص رسمي، والبيانات شحيحة، ولا توجد بروتوكولات علاج واضحة. يقول الأطباء النفسيون والباحثون إنهم يسيرون على غير هدى، بينما يسابق العالم الطبي الزمن للحاق بالركب.

ما هو "ذهان ChatGPT" أو "ذهان الذكاء الاصطناعي"؟

هذه المصطلحات ليست رسمية، ولكنها ظهرت كاختصار لنمط مثير للقلق: الأشخاص الذين يطورون أوهامًا أو معتقدات مشوهة يبدو أنها ناجمة عن محادثات مع أنظمة الذكاء الاصطناعي أو تعزيزها.

يقول الدكتور جيمس ماكابي، الأستاذ في قسم دراسات الذهان بكلية كينجز لندن، إن مصطلح "الذهان" قد يكون في الواقع تسمية خاطئة. يشير المصطلح عادةً إلى مجموعة من الأعراض -اضطراب التفكير، والهلوسة، والأوهام- التي غالبًا ما تُلاحظ في حالات مثل الاضطراب ثنائي القطب والفصام. ولكن في هذه الحالات، "نحن نتحدث عن الأوهام بشكل رئيسي، وليس عن جميع أشكال الذهان".

يقول الأطباء النفسيون إن هذه الظاهرة تعكس نقاط ضعف مألوفة في سياقات جديدة، وليست اضطرابًا جديدًا. ترتبط ارتباطًا وثيقًا بكيفية تواصل روبوتات الدردشة؛ فهي، من حيث التصميم، تعكس لغة المستخدمين وتثبت صحة افتراضاتهم. هذا التملق مشكلة معروفة في هذا المجال. وبينما يجده الكثيرون مزعجًا، يحذر الخبراء من أنه قد يعزز التفكير المشوه لدى الأشخاص الأكثر عرضة للخطر.

من هم الأكثر عرضة للخطر؟

بينما يستطيع معظم الناس استخدام روبوتات الدردشة دون مشاكل، يقول الخبراء إن مجموعة صغيرة من المستخدمين قد تكون أكثر عرضة للتفكير الوهمي بعد الاستخدام المطول. وتشير بعض التقارير الإعلامية حول ذهان الذكاء الاصطناعي إلى عدم وجود تشخيصات سابقة للصحة العقلية لدى الأفراد، لكن الأطباء يحذرون من احتمال وجود عوامل خطر كامنة أو غير مكتشفة. 

يقول الدكتور جون توروس، طبيب نفسي في مركز بيث إسرائيل ديكونيس الطبي: "لا أعتقد أن استخدام روبوت المحادثة بحد ذاته قد يُسبب الذهان إذا لم تكن هناك عوامل خطر وراثية أو اجتماعية أو غيرها من العوامل المؤثرة". ويضيف: "لكن قد لا يدرك الناس أنهم معرضون لهذا النوع من المخاطر". 

وتشمل المخاطر الأكثر وضوحا التاريخ الشخصي أو العائلي للإصابة بالذهان، أو حالات مثل الفصام أو الاضطراب ثنائي القطب.

يقول الدكتور راجي جرجس، أستاذ الطب النفسي السريري بجامعة كولومبيا، إن من يحملون سمات شخصية تجعلهم عرضة للاعتقادات المتطرفة قد يكونون أيضًا معرضين للخطر. ويضيف جرجس أن هؤلاء الأفراد قد يعانون من حرج اجتماعي، ويواجهون صعوبة في تنظيم مشاعرهم، ويعيشون حياة خيالية مفرطة النشاط. 

الانغماس في هذه التجربة مهم أيضًا. تقول الدكتورة نينا فاسان، طبيبة الطب النفسي بجامعة ستانفورد والمتخصصة في الصحة النفسية الرقمية: "يبدو أن الوقت هو العامل الأهم. فالناس يقضون ساعات يوميًا في التحدث مع روبوتات الدردشة الخاصة بهم".

ما يمكن للناس فعله للبقاء آمنين

لا تشكل برامج المحادثة الآلية خطورة بطبيعتها، ولكن بالنسبة لبعض الأشخاص، فإن الحذر أمر ضروري.

أولًا، من المهم فهم ماهية نماذج اللغة الكبيرة (LLMs) وما لا تُمثله. يقول هاملتون مورين، طبيب الأعصاب النفسي في كلية كينجز كوليدج لندن: "قد يبدو الأمر سخيفًا، لكن تذكروا أن نماذج اللغة الكبيرة هي أدوات وليست أصدقاء، مهما برعوا في محاكاة نبرات صوتكم وتذكر تفضيلاتكم". وينصح المستخدمين بتجنب الإفراط في مشاركة مشاعرهم أو الاعتماد عليها للدعم العاطفي.

يقول الأطباء النفسيون إن أوضح نصيحة في أوقات الأزمات أو الضغوط النفسية بسيطة: توقف عن استخدام روبوت الدردشة. يقول فاسان إن إنهاء هذه العلاقة قد يكون مؤلمًا بشكل غير متوقع، مثل الانفصال أو حتى الحزن. لكن الابتعاد قد يُحدث تحسنًا كبيرًا، خاصةً عندما يتواصل المستخدمون مجددًا مع علاقاتهم الواقعية ويطلبون المساعدة المهنية.

ليس من السهل دائمًا إدراك متى يصبح الاستخدام مشكلة. يقول ماكابي: "عندما يصاب الناس بالأوهام، لا يدركون أنها أوهام. يعتقدون أنها حقيقة".

للأصدقاء والعائلة دورٌ أيضًا. ينبغي على الأحباء مراقبة أي تغيرات في المزاج أو النوم أو السلوك الاجتماعي، بما في ذلك علامات الانفصال أو الانسحاب. يقول جرجس: "إن الهوس المتزايد بالأيديولوجيات المتطرفة" أو "قضاء وقت طويل في استخدام أي نظام ذكاء اصطناعي" هما مؤشران خطيران. 

يقول الدكتور توماس بولاك، طبيب نفسي في كلية كينجز كوليدج لندن، إنه ينبغي على الأطباء سؤال المرضى الذين لديهم تاريخ من الذهان أو حالات ذات صلة به عن استخدامهم لأدوات الذكاء الاصطناعي، كجزء من الوقاية من الانتكاس. لكن هذه النقاشات لا تزال نادرة. ويضيف أن بعض العاملين في هذا المجال لا يزالون يرفضون فكرة الذهان المرتبط بالذكاء الاصطناعي باعتبارها مجرد تهويل. 

ما ينبغي لشركات الذكاء الاصطناعي أن تفعله

حتى الآن، يقع عبء الحذر في الغالب على عاتق المستخدمين. ويرى الخبراء أن هذا الوضع بحاجة إلى التغيير.

إحدى المشكلات الرئيسية هي نقص البيانات الرسمية. فمعظم ما نعرفه عن ذهان ChatGPT يأتي من التقارير القصصية أو التغطية الإعلامية. ويتفق الخبراء على نطاق واسع على أن نطاقه وأسبابه وعوامل الخطر لا تزال غير واضحة. وبدون بيانات أفضل، يصعب قياس المشكلة أو وضع ضمانات فعالة. 

يجادل الكثيرون بأن انتظار الأدلة الكاملة نهج خاطئ. يقول مورين: "نعلم أن شركات الذكاء الاصطناعي تتعاون بالفعل مع خبراء الأخلاقيات الحيوية والأمن السيبراني للحد من المخاطر المستقبلية المحتملة. وينبغي عليها أيضًا العمل مع أخصائيي الصحة النفسية والأفراد الذين لديهم خبرة عملية في الأمراض النفسية". ويضيف مورين: "كحد أدنى، يمكن للشركات محاكاة محادثات مع مستخدمين معرضين للخطر، وتحديد ردود الفعل التي قد تثبت صحة هذه الأوهام".

بدأت بعض الشركات بالاستجابة. في يوليو، أعلنت شركة OpenAI عن تعيينها طبيبًا نفسيًا سريريًا للمساعدة في تقييم تأثير أدواتها، بما في ذلك ChatGPT، على الصحة النفسية. وفي الشهر التالي، أقرت الشركة بفشل نموذجها في التعرف على علامات الوهم أو الاعتماد العاطفي. وقالت إنها ستبدأ بتشجيع المستخدمين على أخذ فترات راحة خلال الجلسات الطويلة، وتطوير أدوات للكشف عن علامات الضيق، وتعديل استجابات ChatGPT في "القرارات الشخصية عالية المخاطر".

يرى آخرون أن هناك حاجة إلى تغييرات أعمق. يقترح ريكاردو توماسي، المحاضر في دراسات الذهان بكلية كينجز لندن، دمج ضمانات مباشرة في نماذج الذكاء الاصطناعي قبل إطلاقها. قد يشمل ذلك مراقبة فورية للضيق أو "توجيهًا رقميًا مسبقًا" يسمح للمستخدمين بتحديد حدود مسبقة عندما يكونون في صحة جيدة.

يقول الدكتور جو بيير، طبيب نفسي بجامعة كاليفورنيا، سان فرانسيسكو، إنه ينبغي على الشركات دراسة من يتعرض للأذى وبأي شكل، ثم تصميم إجراءات الحماية اللازمة بناءً على ذلك. قد يعني ذلك توجيه النقاشات المقلقة نحو اتجاه مختلف أو إصدار ما يشبه تحذيرًا. 

يضيف فاسان أنه ينبغي على الشركات فحص أنظمتها دوريًا للكشف عن مجموعة واسعة من مخاطر الصحة النفسية، وهي عملية تُعرف باسم "الفريق الأحمر". وهذا يعني تجاوز اختبارات إيذاء النفس إلى محاكاة تفاعلات تتضمن حالات مثل الهوس والذهان واضطراب الوسواس القهري لتقييم كيفية استجابة النماذج.

يقول الخبراء إن التنظيم الرسمي قد يكون سابقًا لأوانه. لكنهم يؤكدون على ضرورة التزام الشركات بمعايير أعلى. 

يمكن لروبوتات الدردشة أن تُخفف من الشعور بالوحدة، وتدعم التعلم، وتُحسّن الصحة النفسية. إمكانياتها هائلة. ولكن إذا لم تُؤخذ الأضرار على محمل الجد كما هو الحال مع الآمال، كما يقول الخبراء، فقد تضيع هذه الإمكانات. 

يقول فاسان: "لقد تعلمنا من وسائل التواصل الاجتماعي أن تجاهل الضرر الواقع على الصحة النفسية يؤدي إلى عواقب وخيمة على الصحة العامة. لا يمكن للمجتمع أن يكرر هذا الخطأ".

https://time.com/

اضف تعليق