تزداد احتمالات التعرض للتمييز ولغيره من صور الأذى نتيجة استخدام البيانات في ظل ضعف التشريعات المنظمة لها واستخدام طرق الخداع المباشر في بعض الأحيان للحصول عليها، العديد من التطبيقات المتخصصة في خدمات الصحة العقلية قائمة على خوارزميات الذكاء الاصطناعي التي لم تخضع للدراسة الجيدة من حيث الضوابط الأخلاقية والمعنوية...
بقلم: بيرس جودينج، تيموثي كاريوتيس
العديد من التطبيقات المتخصصة في خدمات الصحة العقلية قائمة على خوارزميات الذكاء الاصطناعي التي لم تخضع للدراسة الجيدة من حيث الضوابط الأخلاقية والمعنوية، الأمر الذي قد يؤثر على فئة ضعيفة بالفعل.
تخيل أن شخصًا يمر بأزمة، وأنه يتصل عبر أحد الخطوط الساخنة لمنع الانتحار، هل تظن أنه سيخطر بباله أن يسألهم عن سياسة جمع البيانات التي يطبّقونها؟ وهل من المنطقي أن يفترض أن بياناته محمية وآمنة؟ قبل أن تجيب بالإيجاب، فإن بعض الأحداث التي وقعت مؤخرًا ربما تدعوك لإعادة النظر.
تخدم التقنيات المستخدمة في مجال الصحة العقلية -مثل بوتات الإنترنت وخطوط الدردشة- الأشخاص الذين يمرون بأزمة، وهم الفئة الأضعف بين مستخدمي هذا النوع من التقنيات، ومثلهم مثل غيرهم، يتوقعون أن تكون بياناتهم مؤمنةً ومحميةً وسرية، ولكن لسوء الحظ، فإن الكثير من الأمثلة الخطيرة قد أظهرت أن هناك بيانات شديدة الحساسية قد تعرضت لإساءة استخدام واضحة، فقد وجدنا من خلال بحثٍ أجريناه أن مطوري خوارزميات الذكاء الاصطناعي المعنية بالصحة العقلية يستخدمون بياناتٍ مجمعةً لتجربة الخوارزميات، وبصفة عامة لا يكترث هؤلاء المطوّرون بالمسائل الأخلاقية والسياسية، ولا حتى تلك المرتبطة بالخصوصية، عند استخدام هذه البيانات سالفة الذكر، فعلى الأقل ينبغي تطبيق المعايير الأخلاقية نفسها المستخدمة في مجال الرعاية الصحية على التقنيات المستخدمة في قطاع الصحة العقلية.
وفي وقتٍ قريب، ذكرت صحيفة «بوليتيكو» Politico أن منظمة «كرايسيس تيكست لاين» Crisis Text Line غير الربحية، والتي تدّعي أنها ملاذٌ آمن وسري لأولئك الذين يمرون بأزمة ويرغبون في الحديث مع أحد، كانت تشارك البيانات التي تجمعها، من مستخدمين، مع شركتها الربحية المنبثقة عنها، «لوريس إيه آي» Loris AI، التي تطور برامج لخدمة العملاء، وفي بداية ظهور الأمر إلى العلن، دافع أحد مسؤولي شركة «كرايسيس تيكست لاين» عن عملية تبادُل البيانات تلك، زاعمًا أنها عملية أخلاقية بالكامل، وأنها "تتسق مع القانون من كل النواحي"، بيد أنه في غضون بضعة أيام أعلنت المنظمة أنها قد أنهت علاقة تبادُل البيانات مع «لوريس إيه آي»، وإن كانت قد أصرت في الوقت نفسه على أن البيانات قد "جرى التعامل معها بصورة آمنة، ودون الكشف عن هوية أصحابها، وأنه قد أزيلت منها كل المعلومات الشخصية التي تسمح بالتعرّف على أصحابها".
كانت شركة «لوريس إيه آي»، التي تستخدم الذكاء الاصطناعي في تطوير تطبيقات قائمة على بوتات دردشة تخدم المستهلكين، قد استخدمت بيانات أكثر من مئة مليون اتصال ورد لأفراد يعملون في منظمة «كرايسيس تيكست لاين» لمساعدة مقدمي الخدمة على فهم وجهة نظر العميل على سبيل المثال، وقد أعلنت «لوريس إيه آي» أنها قد حذفت جميع البيانات التي حصلت عليها من «كرايسيس تيكست لاين»، إلا أنه لم يتضح بعدُ ما إذا كان هذا الإجراء قد امتد ليشمل الخوارزميات التي تدربت على البيانات.
تُفصح هذه الحادثة وحوادث أخرى مشابهة عن تزايُد قيمة بيانات الصحة العقلية، التي تمثل جزءًا من التعلم الآلي، كما أنها تسلط الضوء على بعض المناطق الرمادية، تنظيمية الطابع، التي تتدفق فيها هذه البيانات، إن صحة هذه الفئة الضعيفة من الناس -أو أولئك المعرضين للإصابة بأزمات صحية ونفسية- وخصوصياتهم، كلها معرضة للخطر؛ فهؤلاء الأشخاص هم الذين يتحملون عواقب التصميم السيئ للتقنيات الرقمية، ففي عام 2018، رفضت سلطات الحدود الأمريكية دخول العديد من الكنديين إلى البلاد لأنهم نجوا من محاولات انتحار سابقة، واستندت في ذلك إلى معلومات مستقاة من قاعدة بيانات الشرطة، دعونا نفكر قليلًا في هذا الموقف، فقد خضعت معلومات عن الصحة العقلية غير الجنائية للتداول عبر إحدى قواعد بيانات جهات إنفاذ القانون، لمنع شخص يرغب في عبور الحدود.
يحتاج واضعو السياسات والمشرِّعون إلى أدلة علمية تسمح لهم بإدارة مساحات الذكاء الاصطناعي على الوجه الصحيح، فضلًا عن استخدامها في منتجات الصحة العقلية وتطبيقاتها.
وكنا بالفعل قد أجرينا تحليلًا على 132 دراسة اختبرت فيها تقنيات آلية مثل بوتات الدردشة في مبادرات الصحة العقلية عبر الإنترنت، وفي 85% من الدراسات، لم يتطرق الباحثون -سواء كان ذلك في تصميم الدراسة أو في نتائجها- إلى الطرق المحتملة التي يمكن لهذه البيانات أن تُستخدم فيها على نحوٍ سلبي، وبخلاف وجود بعض التقنيات التي تزيد من احتمالات التسبُّب في أذىً مباشر، فعلى سبيل المثال استخدمت 53 دراسة بياناتٍ من منصات للتواصل الاجتماعي منشورة للعموم، دون أخذ الموافقة من أصحابها في معظم الحالات، بغرض توقُّع بعض الأمور عن الشخص، مثل محاولة تشخيص صحته العقلية، ولم يتناول أيٌّ من هذه الدراسات التي نظرنا فيها التمييز المحتمل الذي قد يشعر به الناس حال نُشِرَت هذه البيانات للعامة.
كما أن عددًا محدودًا للغاية من هذه الدراسات قد ضم مُدخَلاتٍ لأشخاص استفادوا من خدمات للصحة العقلية، فقد أدرج الباحثون -في 3% فحسب من الدراسات- مُدخلات جاءت من أشخاص تعاملوا مع خدمات للصحة العقلية في تصميم الدراسة أو تقييمها أو تنفيذها بطريقة مهنية، وبعبارة أخرى، تفتقر الأبحاث التي توجه هذا المجال إلى مشاركة مَن سيتحملون عواقب استخدام هذه الأنواع من التقنيات.
وإضافةً إلى ذلك كله، سيتوجب على مطوري تطبيقات الذكاء الاصطناعي المرتبطة بعالم الصحة العقلية أن يدرسوا الآثار السلبية المحتملة، وطويلة المدى، التي قد تنتج عن استخدام تقنيات مختلفة للصحة العقلية، سواءٌ كان ذلك من حيث الطريقة التي ستُستَخدَم بها البيانات، أو النتائج المترتبة على إخفاق التقنية في مساعدة المستخدم، كما يتوجب على محرِّري الدوريات الأكاديمية السعي لنشر هذه الدراسات، مثلما هو الحال مع أعضاء مجلس أخلاقيات البحوث والممولين ونحو ذلك كله، ولا بد أن يصاحب هذه الجهود تبنِّي معايير تدعم التجارب الحية في مجال أبحاث الصحة العقلية.
أما على صعيد السياسات، فإن الولايات المتحدة الأمريكية تُولي حمايةً خاصةً للمعلومات الاعتيادية ذات الصلة بالصحة العقلية، ولكن على ما يبدو فالأشكال الجديدة من البيانات المرتبطة بالصحة العقلية لا تحظى بالحماية الكاملة نفسها، خذ على سبيل المثال قانون إمكانية نقل التأمين الصحي والمساءلة (HIPAA)، إذ لا يُطَبَّق هذا القانون على منتجات الرعاية الصحية التي يستخدمها المستهلك مباشرة، بما في ذلك تلك التقنية الداعمة لمنتجات الصحة العقلية القائمة على الذكاء الاصطناعي، ومن المحتمل أن تضطلع هيئة الغذاء والدواء (FDA) ومفوضية التجارة الفيدرالية (FTC) بأدوار حاسمة في تقييم هذه التقنيات التي يستخدمها المستهلكون مباشرةً وتقييم ادعاءاتها، ورغم ذلك كله، يبدو أن نطاق اختصاص هيئة الغذاء والدواء لا يضم جامعي بيانات الصحة العقلية، مثل تطبيقات السلامة الصحية ومواقعها وشبكات التواصل الاجتماعي الخاصة بها، ومن ثم لا يشمل أغلب البيانات الصحية «غير المباشرة»، كما أن البيانات المجمعة عبر منظمات غير ربحية -والتي كانت مصدرًا رئيسًا للقلق في حالة «كرايسيس تيكست لاين»- لا تقع ضمن نطاق اختصاصات مفوضية التجارة الفيدرالية.
من الجلي أن توليد بيانات من معاناة البشر يثير المخاوف أكثر من مسألة الاختراق المحتمل للخصوصية، فهو يهدد كذلك انفتاح المجتمع وحريته، وقد يترتب على ذلك احتمالية أن يُلجِم الناس ألسنتهم وتصرفاتهم، مخافة أن يتحول عالمهم الداخلي، وما يشعرون به ويختبرونه، إلى بيانات دون علمهم، ولكل ذلك عواقب وخيمة على المجتمع، تخيَّل عالمًا، أو كابوسًا، نحتاج فيه إلى البحث عن خبير من «محللي وسائل التواصل الاجتماعي» لمساعدتنا في صناعة محتوى يجعلنا نبدو «أصحاء عقليًّا»، أو عالمًا يعتاد فيه أرباب العمل فحص بيانات موظفيهم المحتملين على مواقع التواصل الاجتماعي للتأكد من خلوهم من مخاطر ترتبط بالصحة العقلية.
من المحتمل أن بياناتنا، نحن جميعًا، ستُستخدم قريبًا للتنبؤ بما سيحدث في المستقبل من مِحَن أو اضطرابات، بغض النظر عما إذا كنا قد تعاملنا مع خدمات الصحة العقلية، إن إجراء التجارب باستخدام الذكاء الاصطناعي والبيانات الضخمة يُحسِّن من الأشكال الجديدة من البيانات المتعلقة بالصحة العقلية، التي قد تفلت من قبضة القوانين الحالية، وفي الوقت الحالي، تعمل شركة «آبل» مع شركة التكنولوجيا الحيوية متعددة الجنسيات «بايوجين» Biogen وجامعة كاليفورنيا في لوس أنجلوس، في محاولة لاستكشاف إمكانية استخدام بيانات يرصدها جهاز استشعار موجود في الهاتف المحمول، مثل بيانات الحركة وأنماط النوم، للاستدلال على الصحة العقلية والتدهور الإدراكي.
وتستمر النظرية في توضيح كيف أن جمع نقاط بيانات كافية عن سلوك شخصٍ ما لإجراء عمليات حسابية سيساعدنا في الكشف عن مؤشرات التدهور الصحي أو الإعاقة، وتخلق مثل هذه البيانات الحسّاسة فرصًا جديدةً لاتخاذ قرارات عنيفة وقائمة على التمييز والتحيز ضد أشخاص أو جماعات؛ فمن المنطقي أن نفكّر: كيف للبيانات الشخصية التي تقول لنا إن شخصًا ما «مكتئب» أو يعاني «تدهورًا إدراكيًّا» -أو أنه على الأرجح سيصاب بذلك- أن تؤثر على تكاليف تأمينه الصحي؟ وهل سيتمكن الأشخاص من الاعتراض على توصيفات كهذه، أو إبداء رأيهم فيها، قبل أن تنتقل البيانات إلى أطراف أخرى؟
تسير عجلة التطور بوتيرة سريعة في مجال الصحة العقلية الرقمية، وتتنامى الشركات التي تدرك قيمة استخدام البيانات الشخصية في أغراض الصحة العقلية، ويُقدِّر تقريرٌ للمنتدى الاقتصادي العالمي قيمة سوق الصحة الرقمية العالمية بمبلغ 118 مليار دولار أمريكي، مشيرًا إلى أن الصحة العقلية هي أحد أسرع المجالات نموًّا، وهناك قائمة متنامية من الشركات الناشئة تتنافس على موقع أكبر شركة في مجال الصحة العقلية، وقد جذبت شركات الصحة السلوكية الرقمية رأس مال مخاطر بقيمة 1.8 مليار دولار أمريكي في عام 2020 وحده فقط.
وبالنظر إلى التدفق النقدي في رأس المال الخاص، فإن هناك تناقضًا صارخًا مع فقر التمويل في أنظمة الرعاية الصحية التي يعاني الناس فيها من أجل الحصول على خدمات مناسبة، وبالنسبة لكثير من الأشخاص، فإن استخدام بدائل أقل تكلفةً عبر الإنترنت، بدلًا من الدعم عبر التواصل وجهًا لوجه مع متخصص، قد يُمثّل الخيار الوحيد المتاح لهم، بيد أن هذا الاختيار في حد ذاته يُسهم في خلق نقاط ضعف جديدة لا نزال نحاول فهمها حتى الآن.
اضف تعليق