عند التفكير بمالات الحروب المستقبلية واستخدامات الأسلحة ذاتية التشغيل يتبادر إلى الذهن سؤال مركزي عن كفاية القواعد القانونية الدولية لتنظيم ذلك والتخفيف من مخاطرها، فالاتفاقيات المنظمة للحروب والصراعات العسكرية غير قادرة على الاستجابة لمخاطر هذه الأسلحة الفتاكة التي تمثل في حقيقتها عدوان صارخ يطال حق الإنسان في الحياة...
ساعد التقدم التكنلوجي والعلمي في عصرنا الراهن على تقدم الحياة وزيادة رفاهية الإنسان في العديد من المجالات الحيوية وأسهم في سعادة الإنسان، بيد أنه في الوقت ذاته تسبب للكوكب وليس للإنسان فحسب بالعديد من الكوارث، لا أقلها التلوث الذي بات خطراً يهدد الأرض ومن عليها.
ومن اللافت في الصراعات الراهنة تزايد استعمالات الأسلحة ذاتية التشغيل التي تمنح القوات المسلحة لبعض الدول ميزة التفوق ولا شك ان له مخاطر جمة يمكن ان تصيب المدنيين العزل، ما يعني تزايد معاناة الآلاف من بني البشر وكذا منح هذه الدولة ميزة في ربح أو خسارة الحرب والتهديد بالحرب وبالمحصلة ستمنح تلكم الدول ميزة في بناء العلاقات الدولية وستكون لغة التهديد والوعيد والاستقواء على الأطراف الأقل هي السائدة ما يعني افتقاد العدالة الدولية ومزيد من التوترات والصراعات الخفية والعلنية التي تقود إلى سباق في التسلح.
في حين ان ميثاق الأمم المتحدة الذي جاء كحل للحروب وبديل عنها العام 1945 لبناء العلاقات الدولية على الاحترام المتبادل للسيادة الوطنية وعدم تعريض حقوق الشعوب الأصلية في تقرير المصير سيكون في طيات النسيان، ولنا في الحرب الإسرائيلية الأخيرة المثال الأبرز في قيام هذا الكيان بتهديد دول في المنطقة وقيامه بأعمال عسكرية تمثل بأبسط تعريفاتها عدواناً سافراً على السيادة وحرية الناس وحقوقهم غير القابلة للتفاوض وتمخض ما تقدم عن تهديد بترحيل الشعب الفلسطيني عن أرضه إلى وطن بديل، وفرض هذا الخيار بقوة السلاح والتهديد، والتصرف الأخير ولا شك يمثل تهديداً للأمن والسلم الدوليين وعدوان على حق الشعب الأصلي في تقرير المصير وانتهاك للمادة (1) من ميثاق الأمم المتحدة.
والمراقب لوضع الصرعات الدولية في السنوات الأخيرة يلحظ تزايد الاعتماد على تقنيات الأسلحة ذاتية التشغيل والتي يتم التحكم بها عن بعد، مثل الطائرات المسيرة "الدرون" والصواريخ والقنابل الموجهة والروبوتات المقاتلة والألغام الذكية حيث تزايدت مخاطر هذه الأسلحة بعد ان استعملت تطبيقات الذكاء الاصطناعي في إنتاج وتشغيل هذه الأسلحة وهو ما بات يعرف اليوم بـ(الأسلحة ذاتية التشغيل) وهى أسلحة قادرة على تحديد أهدافها عن بعد والتنبؤ بتحركاتها كما ولها القدرة على الاشتباك مع العدو بدون حاجة إلى تدخل بشري.
وفي البدء كانت هذه الأسلحة دفاعية بامتياز مثل نظام (NBS Mantis الألماني)، ونظام (Patriot الأمريكي) بيد ان التطور وشغف بعض الدول في الاستقواء قاد إلى الأسلحة الفتاكة الهجومية القادرة على الاشتباك والقتل في الهواء أو على الأرض أو على سطح الماء أو في اعماقه، وحتى العام 2018 كان السائد ان هذه الأسلحة تحتاج إلى الأذن بإطلاق النار من الإنسان، لكنها اليوم تعمل بشكل مستقل ولا تحتاج إلى مثل ذلك لتزويدها بتطبيقات هجومية طورت باستخدام تقنيات الذكاء الاصطناعي.
وعندها نتساءل عن مشروعية هذه الأسلحة واستخداماتها لاسيما في الصراعات الممتدة إلى المدن والقصبات المأهولة بالمدنيين حيث ان القانون الدولي الإنساني يفترض ان يأخذ دوره في تنظيم استخداماتها والحد من مخاطرها، بعبارة أخرى يجب احترام الذات الإنسانية مهما كانت غاية أو نطاق الحرب، والتساؤل الأهم على من تقع مسؤولية استخدامها؟ بما يلحق الضرر بالمدنيين والأعيان المدنية، وكيف يتم مساءلة من أمر باستعمالها؟ وأمام أي قضاء ممكن محاكمة هؤلاء؟
ولعل السؤال الأهم هل هنالك من مسؤولية قانونية تترتب على كاهل من عمل على تطويرها؟ فهؤلاء العلماء والمبتكرين ممن جندوا علمهم لخدمة الأهداف الدفاعية قد يلتمس لهم العذر بيد ان العاملين في الشركات الربحية التي لا يهمها سوى الربح على حساب الألم والمعاناة للمدنيين فهل يمكن مساءلتهم؟
وان كان التخوف فيما مضى من الأسلحة النووية أو أسلحة الدمار الشامل فأن التوسع الكبير في تطوير أسلحة ذاتية التشغيل قد ينتج سلاحاً أشد فتكاً من الأسلحة النووية ذاتها فالتقارير تتحدث عن تطوير الدول الكبرى سلاح الأسراب (Swarms) وهي عبارة عن درونات صغيرة مسلحة بأسلحة نارية أو متفجرة أو حتى بعض أسلحة الدمار الشامل كالمواد الكيميائية أو البايلوجية والقادرة على التحليق معاً ضمن مصفوفات يهيمن عليها التشغيل الذاتي ويمكنها ان تقوم بتشخيص للأفراد بالاعتماد على الحرارة التي تنبعث من أجسادهم لتستهدفهم بشكل مباشر، ما يعني إمكانية الإبادة التامة لرقعة جغرافية معينة ولما كانت تطبيقات الذكاء الاصطناعي تمتلك بعض المهارات الإنسانية كالتعلم والقدرة على التشخيص (الاستنباط والتوقع والتكييف مع البيئة) فذاك يزيد من مخاطر هذه الأسلحة، فبدل ان توجه تلك التطبيقات إلى مجالات واستعمالات إيجابية لمصلحة الإنسان في قطاعات النقل والصحة والتعليم وإنتاج الطاقة تركز بعض الأنظمة الحاكمة في العالم على تطوير تقنيات حربية تمنحها التفوق التقني والعسكري.
ومما لاشك فيه ان الذكاء الاصطناعي الحربي يعني قدرة بعض الآلات الرقمية المرتبطة بالأسلحة على استخدام القوة المميتة واتخاذ القرارات الحربية بدل الجنود في الميدان، بمعنى إنها تحاكي المهارات التي يقوم بها الجندي سابقاً، بل إنها تحاكي طريقة التفكير البشرية، وبما ان تلك التقنيات مبرمجة على معالجة المعلومات بطريقة آلية تمكنها من تلقي البيانات وتحليلها وبعد ذلك يصار إلى اتخاذ القرار بشكل بعيد عن الإنسان تماماً، فالذكاء الاصطناعي نفسه يعرف بأنه ((أنظمة تظهر سلوكاً ذكياً من خلال تحليل بيئتها واتخاذ الإجراءات، إما من خلال برامج فقط أو من خلال أنظمة التعرف على البيانات))، ومن المتفق عليه اليوم أنه لا توجد أي اتفاقية دولية تظم وبشكل قانوني تطوير أو إنتاج أو نقل أو بيع أو استخدام أياً من أنظمة الأسلحة ذاتية التشغيل، والأسلحة التي استخدمت في العدوان على لبنان وسوريا وغزة وغيرها من المناطق التي طاولتها يد العدوان لا يمكن معرفة من هي الجهة التي طورتها أو أمرت بذلك.
وعند التفكير بمالات الحروب المستقبلية واستخدامات الأسلحة ذاتية التشغيل يتبادر إلى الذهن سؤال مركزي عن كفاية القواعد القانونية الدولية لتنظيم ذلك والتخفيف على الأقل من مخاطرها، فالاتفاقيات المنظمة للحروب والصراعات العسكرية غير قادرة على الاستجابة لمخاطر هذه الأسلحة الفتاكة التي تمثل في حقيقتها عدوان صارخ يطال حق الإنسان في الحياة الحرة والكريمة وان يعامل حتى المحارب معاملة عادلة قبل اتخاذ القرار بقتله فقد يكون جريحا أو في عداد الأسرى بالمفهوم العسكري، وقد يكون من عداد المدنيين.
وكذا الأمر بالنسبة للأعيان لا سيما المدنية الصحية أو المختصة بالإغاثة أو المحايدة فكل ما تقدم ليس هدفاً حربياً مشروعاً حتى في أحوال الضرورة العسكرية، ولنعط لما تقدم دليل حيث ان آلة الحرب العمياء في فلسطين تسببت مثلاً بمقتل المئات من الصحفيين العزل ما يدل على ان الاستعمال المفرط لأنظمة القتل الذكية وبلاشك يمثل انتهاكاً خطيراً لكل القواعد القانونية المنظمة للحرب بل هو حرب إبادة بكل ما تحمله الكلمة من معنى.
نعم والى حد كبير تنطبق اتفاقية حظر أو تقييد استعمال أسلحة تقليدية يمكن اعتبارها مفرطة الضرر أو عشوائية الأثر لعام ۱۹۸۰، على بعض استعمالات الأسلحة الذكية وتعد أساساً قانونياً صالحاً للتعامل ولو بشكل جزئي مع مخاطرها حيث عالجت الاتفاقية استعمال الألغام والليزر والمخلفات الحربية، بيد إنها في البروتوكولات الملحقة بها لم تتطور الى درجة الاستجابة لمخاطر استعمال الطائرات المسلحة المسيرة أو القوارب والغواصات المسيرة القادرة على إطلاق القذائف أو الاشتباك المباشر، ويزداد الأمر سوءً حين يتم الاعتماد على الروبوتات القاتلة التي تعتمد على العلامات الحيوية الصادرة من جسم الإنسان لتتخذ قرار القتل المباشر بدون أي تحذير أو تمييز بين الأهداف.
كما ان الخطر المنوه عنه أعلاه يتعاظم حين يتم النظر إلى المخاطر الناجمة عن تلك التقنيات المتقدمة في القتال عن بعد وإمكانية ان تقع هذه الأسلحة المميتة بيد الجماعات الإرهابية أو الخارجة عن القانون فتنفذ بها جرائم ضد الإنسانية، بل ان احتمالية التأثير عليها والسيطرة عليها عن بعد بالتشويش وما شاكل يضاعف خطرها فقد يتسبب ذلك في انفجارها أو توجيهها إلى هدف مدني بدل الأهداف العسكرية المنتقاة، ولما كانت المسؤولية عن هذه الأسلحة قانونية فهي تتفرع إلى:
1- مسؤولية الدولة عن إنتاج أو تطوير أو استعمال أو بيع أو نقل مثل هذه الأسلحة.
2- مسؤولية القائد العسكري والجنود القائمين بالتشغيل أو السيطرة أو إعطاء الأذن باستعمال القوة المميتة.
3- مسؤولية جهة الإسناد كتلك الجهات التي تزود القوات المسلحة ببعض البيانات التي تخص تحركات الخصم أو أماكن تواجدهم أو غير ذلك من معلومات الخاصة بالميدان الحربي، وهو ما ظهر جلياً من قيام العديد من الشركات ببيع البيانات التي تخص الخصوم حيث وفرت الكثير من الشركات المشغلة لمواقع التواصل الاجتماعي أو خدمات الانترنيت او خدمات الذكاء الاصطناعي تسهيلات لجيوش حول العالم قادت إلى استهدافات عشوائية راح ضحيتها العديد من الأفراد من المدنيين العزل.
وكل ما تقدم ولا شك يخالف البروتوكول الأول لاتفاقيات جنيف لعام 1977 الذي ينص في المادة (٥٧) منه على أنه يتوجب على القائد العسكري الذي يخطط لشن هجوم محدد ومنظم أن يلتزم بكافة الاحتياطات اللازمة والمنصوص عليها في البروتوكول، كما ورد في المادة (۸۷) ان من واجبات القادة العسكريين الامتناع عن ارتكاب الانتهاكات الجسيمة، وأهمية اتخاذ الإجراءات اللازمة لمنع أي انتهاكات أخرى وفقا لاتفاقيات جنيف الأربع كما ورد في المادة (۲۸) من اتفاقية روما أو نظام روما الأساسي للمحكمة الجنائية الدولية۱۹۹۸ والخاصة بمسئولية القادة والرؤساء حيث يمكن محاكمة مجرمي الحرب ممن تقوم مسؤوليتهم الجنائية في أحوال منها:
1- إذا كان القائد العسكري أو الشخص على علم أو يفترض أن يكون على علم بسبب الظروف السائدة في ذلك الحين، بأن القوات ترتكب أو على وشك ارتكاب هذه الجرائم.
2- إذا لم يتخذ ذلك القائد العسكري أو الشخص جميع التدابير اللازمة والمعقولة في حدود سلطته لمنع أو قمع ارتكاب هذه الجرائم أو لعرض المسألة على السلطات المختصة للتحقيق والمقاضاة.
والنص المتقدم يمكن الاستناد إليه لمحاكمة مجرمي الحرب الذكية كما الحروب التقليدية بيد ان الفجوة ستبقى بالنسبة للشركات والأفراد ممن يتولون مهمة التطوير أو الدعم والإسناد غير المشروع للقوات العسكرية التي تخوض صراعاً حربياً في المناطق المأهولة.
..........................................
اضف تعليق