حتى لو حصلنا على ما يريده أغلب الباحثين في سلامة الذكاء الاصطناعي الانحياز السليم وفرض القيود على الذكاء الاصطناعي العام ــ فلن نكون آمنين. يجب أن تكون العواقب المترتبة على هذا الاستنتاج واضحة: نحن في احتياج إلى مؤسسات أقوى كثيرا لكبح جماح شركات التكنولوجيا، وأشكال أقوى...
بقلم: دارون عاصم أوغلو
بوسطن- في السنوات الأخيرة، نشأت صناعة ضخمة، حيث جعلت الصين، والولايات المتحدة، والمملكة المتحدة، والاتحاد الأوروبي من سلامة الذكاء الاصطناعي أولوية قُـصوى. من الواضح أن أي تكنولوجيا ــ من السيارات والمستحضرات الدوائية إلى الأدوات الآلية وماكينات جز العشب ــ يجب أن تكون مُـصَـمَّمة بأمان قدر الإمكان (نتمنى لو كانت وسائط التواصل الاجتماعي أُخْـضِعَـت خلال أيامها الأولى لقدر أعظم من التدقيق).
لكن الاكتفاء بإثارة المخاوف المتعلقة بالسلامة لن يفي بالغرض. في حالة الذكاء الاصطناعي، تركز المناقشة بدرجة مُـفرِطة على "السلامة ضد المخاطر الكارثية التي يفرضها الذكاء الاصطناعي العام"، أي الذكاء الفائق القادر على التفوق على كل البشر في معظم المهام الإدراكية. تتعلق مسألة مطروحة للمناقشة بما يسمى "الانحياز": ما إذا كانت نماذج الذكاء الاصطناعي تُـفرِز نتائج تتوافق مع أهداف وقيم مستخدميها ومصمميها ــ وهو موضوع يقودنا إلى سيناريوهات عديدة أشبه بالخيال العلمي حيث يظهر شكل ما من أشكال الذكاء الاصطناعي الفائق ويدمر البشرية. يركز كتاب "مشكلة الانحياز" للمؤلف الأكثر مبيعا بريان كريستيان في الأغلب على الذكاء الاصطناعي العام، وقد دفعت ذات المخاوف أنثروبيك (Anthropic)، وهي إحدى الشركات الرئيسية في هذا المجال، إلى بناء نماذج تعمل بموجب "دساتير" خاصة تكرس القيم والمبادئ الأخلاقية.
لكن سببين على الأقل ربما يجعلان هذه الأساليب مضللة. أولا، لا يكتفي الجدال الدائر حاليا حول السلامة بتشبيه الذكاء الاصطناعي (على نحو غير مفيد) بالبشر؛ بل إنه يقودنا أيضا إلى التركيز على الأهداف الخاطئة. وبما أن أي تكنولوجيا يمكن استخدامها للخير أو الشر، فإن ما يهم في نهاية المطاف هو من يتحكم فيها، وما هي أهدافها، وأي نوع من الضوابط التنظيمية تخضع له.
لم يكن أي قدر من أبحاث السلامة ليمنع استخدام سيارة كسلاح في مسيرة العنصريين من ذوي البشرة البيضاء في شارلوتسفيل بولاية فرجينيا في عام 2017. وإذا قبلنا الفرضية التي تزعم أن أنظمة الذكاء الاصطناعي لها شخصياتها الخاصة، فقد نستنتج أن خيارنا الوحيد يتمثل في ضمان امتلاكها للقيم والدساتير الصحيحة نظريا. لكن هذه الفرضية زائفة، والحل المقترح سيكون قاصرا بدرجة كبيرة عن الوفاء بالغرض.
من المؤكد أن الحجة المضادة ستكون: "إذا تحقق الذكاء الاصطناعي العام على الإطلاق، فسيكون من المهم حقا ما إذا كان النظام "مُـنحازا" للأهداف البشرية، لأنه لن تتبقى أية حواجز حماية لاحتواء دهاء الذكاء الفائق. لكن هذا الادعاء يقودنا إلى المشكلة الثانية التي تكتنف قسما كبيرا من المناقشات الدائرة حول سلامة الذكاء الاصطناعي. فحتى لو كنا على الطريق إلى اختراع الذكاء الاصطناعي العام (وهو أمر يبدو مُستبعَدا للغاية)، فإن الخطر الأشد إلحاحا يظل متمثلا في إساءة استخدام الذكاء الاصطناعي غير الفائق من قِبَل البشر.
لنفترض أن هناك زمنا ما (T) في المستقبل (لِنقُل عام 2040) عندما يُـخـتَـرَع الذكاء الاصطناعي العام، وأن أنظمة الذكاء الاصطناعي التي لا تملك الذكاء الاصطناعي العام حتى ذلك الحين، ستظل غير مستقلة. (إذا أصبحت ذاتية التصرف قبل الذكاء الاصطناعي العام، فليكن ذلك اليوم هو "T"). والآن لننظر إلى الوضع قبل عام واحد من الموعد "T". ببلوغ تلك النقطة، ستكون أنظمة الذكاء الاصطناعي مقتدرة بدرجة عالية (بفضل كونها على أعتاب الذكاء الفائق)، والسؤال الذي نود طرحه هو: من هو المسيطر الآن؟
ستكون الإجابة بالطبع "الوكلاء البشريون"، إما بشكل فردي أو جماعي في هيئة حكومة، أو اتحاد، أو شركة. لتبسيط المناقشة، اسمحوا لي بالإشارة إلى الوكلاء البشريين المسؤولين عن الذكاء الاصطناعي عند هذه المرحلة باسم "الشركة X". ستكون هذه الشركة (ربما تكون أيضا أكثر من شركة، وهو ما قد يكون أسوأ، كما سنرى) قادرة على استخدام قدرات الذكاء الاصطناعي لأي غرض تريده. فإذا أرادت تدمير الديمقراطية واستعباد الناس، فسوف تكون قادرة على ذلك. والتهديد الذي يعزوه كثيرون من المعلقين إلى الذكاء الاصطناعي العام سيكون وصل بالفعل قبل اختراع الذكاء الاصطناعي العام.
في الواقع، ربما يكون الوضع أسوأ من هذا الوصف، لأن الشركة X قد تجلب نتيجة مماثلة حتى لو لم تكن نيتها تدمير الديمقراطية. وإذا لم تكن أهدافها منحازة تماما للديمقراطية (وهو أمر لا مفر منه)، فقد تعاني الديمقراطية كنتيجة غير مقصودة (كما كانت الحال مع وسائط التواصل الاجتماعي).
على سبيل المثال، قد تتسبب فجوات التفاوت التي تتجاوز عتبة ما في تعريض أداء الديمقراطية السليم للخطر؛ لكن هذه الحقيقة لن تمنع الشركة X من بذل كل ما في وسعها لإثراء نفسها أو حاملي أسهمها. ولن يكون لأي حواجز أمان مدمجة في نماذج الذكاء الاصطناعي لمنع استخدامها لأغراض خبيثة أي أهمية، لأن الشركة X ستظل قادرة على استخدام تكنولوجيتها كيفما تشاء.
على نحو مماثل، لو ظهرت شركتان، الشركة X والشركة Y، تتحكمان في نماذج شديدة الاقتدار من الذكاء الاصطناعي، فقد تظل إحداهما، أو كلتاهما، قادرة على ملاحقة أهداف ضارة بالتماسك الاجتماعي، والديمقراطية، والحرية الإنسانية. (والحجة التي تزعم أن الشركتين قد تقيدان بعضهما بعضا ليست مُـقنِـعة. بل إن المنافسة بينهما قد تجعلهما أشد قسوة).
وعلى هذا، فحتى لو حصلنا على ما يريده أغلب الباحثين في سلامة الذكاء الاصطناعي ــ الانحياز السليم وفرض القيود على الذكاء الاصطناعي العام ــ فلن نكون آمنين. يجب أن تكون العواقب المترتبة على هذا الاستنتاج واضحة: نحن في احتياج إلى مؤسسات أقوى كثيرا لكبح جماح شركات التكنولوجيا، وأشكال أقوى كثيرا من العمل الديمقراطي والمدني للإبقاء على الحكومات التي تتحكم في الذكاء الاصطناعي خاضعة للمُـساءلة. هذا التحدي منفصل تماما ومتميز عن معالجة التحيزات في نماذج الذكاء الاصطناعي أو توافقها مع الأهداف البشرية.
لماذا إذًا نركز بشدة على السلوك المحتمل من جانب الذكاء الاصطناعي شبيه البشر؟ بعض هذا مجرد ضجة دعائية، وهو ما يساعد صناعة التكنولوجيا على اجتذاب مزيد من المواهب والاستثمارات. كلما أصبح الجميع يتحدثون عن الكيفية التي قد يعمل بهذا الذكاء الاصطناعي الفائق، كلما بدأ عامة الناس يتصورون أن وصول الذكاء الاصطناعي العام بات وشيكا. وسوف يندفع المستثمرون من الأفراد والمؤسسات إلى الحدث الكبير القادم، وسوف يحصل المسؤولون التنفيذيون في مجال التكنولوجيا الذين نشأوا على تصورات الخيال العلمي حول الذكاء الاصطناعي الفائق على تصريح مجاني آخر. ينبغي لنا أن نبدأ في تكريس قدر أعظم من الاهتمام للمخاطر الأكثر مباشرة وإلحاحا.
اضف تعليق