تفرض الأسلحة المستقلة تهديدا خطيرا بشكل خاص. فبعد أكثر من عقد من الدبلوماسية في الأمم المتحدة، فشلت البلدان في الاتفاق على حظر الأسلحة الفتاكة المستقلة. يشترط القانون الإنساني الدولي أن تميز الجيوش بين المقاتلين المسلحين والمدنيين، وقد اشترط البنتاغون منذ فترة طويلة أن يشارك أحد البشر...
بقلم: جوزيف ناي
أسبن- البشر نوع من الكائنات القادرة على صنع الأدوات، ولكن هل يمكننا التحكم في الأدوات التي نصنعها؟ عندما طور روبرت أوبنهايمر وغيره من الفيزيائيين أول سلاح يعمل بالانشطار النووي في أربعينيات القرن العشرين، اعتراهم القلق إزاء احتمال تسبب اختراعهم في تدمير البشرية. حتى وقتنا هذا، لم يحدث ذلك، لكن التحكم في الأسلحة النووية كان يشكل تحديا متواصلا منذ ذلك الحين.
الآن، يرى كثير من العلماء الذكاء الاصطناعي ــ الخوارزميات والبرمجيات التي تعمل على تمكين الآلات من أداء مهام تتطلب عادة الذكاء البشري ــ باعتباره أداة تحويلية بذات القدر. فمثله كمثل تكنولوجيات ذات أغراض عامة سابقة، ينطوي الذكاء الاصطناعي على إمكانات هائلة في الخير والشر. ففي أبحاث السرطان، يمكن استخدامه لفرز وتلخيص عدد من الدراسات في بضع دقائق أكبر مما يستطيع فريق بشري القيام به على مدار أشهر عديدة. على نحو مماثل، يمكنه التنبؤ بشكل يمكن التعويل عليه بأنماط طيات البروتين التي قد يستغرق الباحثون من البشر سنوات عديدة للكشف عنها.
لكن الذكاء الاصطناعي يخفض أيضا التكاليف والحواجز التي تحول دون دخول غير الأسوياء، والإرهابيين، وغيرهم من القوى الشريرة التي قد ترغب في إحداث الأذى. وكما حذرت دراسة حديثة أصدرتها مؤسسة راند، فإن "التكلفة الهامشية لإحياء فيروس خطير يشبه فيروس الجدري قد لا تتجاوز 100 ألف دولار، في حين قد تتجاوز تكلفة تطوير لقاح معقد المليار دولار".
علاوة على ذلك، يخشى بعض الخبراء أن يكون الذكاء الاصطناعي المتقدم أكثر ذكاء من البشر إلى الدرجة التي قد تسمح له بالسيطرة علينا، وليس العكس. تتراوح التقديرات حول المدة التي قد يستغرقها تطوير مثل هذه الآلات الفائقة الذكاء ــ المعروفة بالذكاء العام الاصطناعي ــ من بضع سنوات إلى بضعة عقود من الزمن. ولكن أيًا كانت الحال، فإن المخاطر المتنامية المترتبة على استخدام تطبيقات الذكاء الاصطناعي الضيقة اليوم تتطلب بالفعل قدرا أعظم من الاهتمام.
على مدار أربعين عاما، دأبت مجموعة استراتيجية أسبن (التي تتألف من مسؤولين حكوميين سابقين وأكاديميين ورجال أعمال وصحفيين) على الاجتماع كل صيف للتركيز على مشكلة رئيسية تتعلق بالأمن الوطني. تناولت جلسات سابقة مواضيع مثل الأسلحة النووية والهجمات السيبرانية وصعود الصين. وفي عامنا هذا، ركزنا على التأثيرات التي قد يخلفها الذكاء الاصطناعي على الأمن الوطني، ففحصنا الفوائد فضلا عن المخاطر.
كان من بين الفوائد زيادة القدرة على فرز كميات هائلة من بيانات الاستخبارات، وتعزيز أنظمة الإنذار المبكر، وتحسين الأنظمة اللوجستية المعقدة، وتفتيش أكواد الكمبيوتر لتحسين الأمن السيبراني. لكن الأمر لا يخلو أيضا من مخاطر كبرى، مثل التقدم في تصنيع الأسلحة المستقلة، والأخطاء العَـرَضية في خوارزميات البرمجة، والذكاء الاصطناعي المعادي الذي قد يعمل على إضعاف الأمن السيبراني.
كانت الصين حريصة على الدفع باستثمارات ضخمة في سباق تسلح الذكاء الاصطناعي الأوسع، كما أنها تتباهى ببعض المزايا البنيوية. تتمثل الموارد الثلاثة الرئيسية للذكاء الاصطناعي في البيانات لتدريب النماذج؛ والمهندسين الأذكياء لتطوير الخوارزميات؛ وقوة الحوسبة لتشغيله. الواقع أن الصين لا تفرض سوى قِـلة من القيود القانونية أو القيود المرتبطة بالخصوصية للحد من الوصول إلى البيانات (وإن كانت الإيديولوجية تقيد بعض مجموعات البيانات)، وهي مزودة بشكل جيد بمهندسين شباب لامعين. المنطقة التي تتخلف فيها الصين بأكبر درجة عن الولايات المتحدة هي الرقائق الإلكترونية الدقيقة المتقدمة التي تنتج قوة الحوسبة اللازمة لتطبيقات الذكاء الاصطناعي.
تحد ضوابط التصدير الأميركية من قدرة الصين على الوصول إلى هذه الرقائق الرائدة، فضلا عن آلات الطباعة بالحَـفر الهولندية الباهظة الثمن التي تصنع هذه الرقائق. كان الإجماع بين الخبراء في أسبن أن الصين متأخرة عن الولايات المتحدة بعام أو عامين؛ لكن الوضع يظل متقلبا. فعلى الرغم من الاتفاق بين الرئيسين جو بايدن وشي جين بينج على عقد مناقشات ثنائية بشأن الذكاء الاصطناعي عندما التقيا في الخريف الماضي، كان التفاؤل في أسبن ضئيلا بشأن آفاق مراقبة التسلح بالذكاء الاصطناعي.
تفرض الأسلحة المستقلة تهديدا خطيرا بشكل خاص. فبعد أكثر من عقد من الدبلوماسية في الأمم المتحدة، فشلت البلدان في الاتفاق على حظر الأسلحة الفتاكة المستقلة. يشترط القانون الإنساني الدولي أن تميز الجيوش بين المقاتلين المسلحين والمدنيين، وقد اشترط البنتاغون منذ فترة طويلة أن يشارك أحد البشر في دائرة صنع القرار قبل إطلاق أي سلاح من هذا القبيل. ولكن في بعض السياقات، مثل الدفاع ضد صواريخ قادمة، لا يوجد وقت للتدخل البشري.
ونظرا لأهمية السياق، يتعين على البشر أن يحددوا بدقة (في الكود) ما يمكن أن تفعله الأسلحة وما لا يمكنها أن تفعل. بعبارة أخرى، يجب أن يتواجد أحد البشر للإشراف "على الدائرة" من أعلى وليس من "داخل الدائرة". وهذه ليست مجرد مسألة تخمينية. في حرب أوكرانيا، عمل الروس على التشويش على إشارات القوات الأوكرانية، مما أجبر الأوكرانيين على برمجة أجهزتهم لاتخاذ القرار النهائي المستقل حول متى تطلق النار.
يتمثل أحد أكثر مخاطر الذكاء الاصطناعي إثارة للخوف في تطبيقه على الحرب البيولوجية أو الإرهاب. عندما وافقت البلدان على حظر الأسلحة البيولوجية في عام 1972، كان الاعتقاد السائد أن مثل هذه الأجهزة ليست مفيدة، نظرا لخطر "الانفجار العكسي" على جانب مستخدمها ذاته. ولكن مع البيولوجيا التخليقية، ربما يكون من الممكن تطوير سلاح يدمر مجموعة بعينها ولكن ليس غيرها. أو قد يرغب إرهابي لديه القدرة على الوصول إلى أحد المختبرات في قتل أكبر عدد ممكن من الناس، كما فعلت طائفة أوم شينريكيو في اليابان عام 1995. (على الرغم من استخدامهم غاز السارين، الذي لا ينتقل بالعدوى، فقد يستخدم نظيرهم الحديث الذكاء الاصطناعي لتطوير فيروس ينتقل بالعدوى).
في حالة التكنولوجيا النووية، اتفقت البلدان في عام 1968 على معاهدة لمنع الانتشار تضم الآن 191 عضوا. وتقوم الوكالة الدولية للطاقة الذرية بانتظام بتفتيش برامج الطاقة المحلية للتأكد من اقتصار استخدامها على أغراض سلمية. وعلى الرغم من المنافسة الشديدة إبان الحرب الباردة، وافقت البلدان الرائدة في مجال التكنولوجيا النووية في عام 1978 على ممارسة ضبط النفس في تصدير المرافق والمعرفة الفنية الأكثر حساسية. تشير مثل هذه السابقة إلى بعض مسارات الذكاء الاصطناعي، وإن كان الأمر لا يخلو من اختلافات واضحة بين التكنولوجيتين.
من المسلم به أن التكنولوجيا تتحرك بسرعة أكبر من السياسة أو الدبلوماسية، وخاصة عندما تكون مدفوعة بمنافسة سوقية شديدة في القطاع الخاص. إذا كان اجتماع مجموعة استراتيجية أسبن هذا العام توصل إلى استنتاج رئيسي واحد، فهو أن الحكومات يجب أن تكون حريصة على تسريع وتيرة عملها.
اضف تعليق