رئيس التحرير: عادل صبري 03:32 صباحاً | الأحد 21 أكتوبر 2018 م | 10 صفر 1440 هـ | الـقـاهـره 28° صافية صافية

هيومن رايتس تطالب بحظر استخدام أسلحة «الروبوتات القاتلة»

هيومن رايتس تطالب بحظر استخدام أسلحة «الروبوتات القاتلة»

سوشيال ميديا

الروبوتات القاتلة

هيومن رايتس تطالب بحظر استخدام أسلحة «الروبوتات القاتلة»

وائل مجدي 22 أغسطس 2018 09:45

قالت "هيومن رايتس ووتش" في تقرير لها إن مبادئ الإنسانية والوعي العام يؤيدان فرض حظر على الأسلحة ذاتية التحكم".

 

وأضافت المنظمة: "على الدول المشاركة في الاجتماع الدولي القادم حول "الروبوتات القاتلة" التفاوض على حظر تطوير وإنتاج واستخدام أنظمة الأسلحة هذه".

 

ويقول التقرير الذي جاء بعنوان "لبّوا النداء: ضرورة أخلاقية وقانونية لحظر الروبوتات القاتلة" إن الأسلحة ذاتية التحكم تنتهك ما يُعرف بـ "شرط مارتنز" الوارد في "القانون الدولي الإنساني" والذي ينصّ على ضرورة الحكم على التكنولوجيات الناشئة اعتمادا على "مبادئ الإنسانية" و "الوعي العام"، عندما لا تكون مشمولة مسبقا في أحكام المعاهدات الأخرى.

 

وقالت بوني دوورتي، باحثة أولى بقسم الأسلحة في هيومن رايتس ووتش، ومنسقة حملة "أوقفوا الروبوتات القاتلة": "السماح بتطوير واستخدام الروبوتات القاتلة يقوض المعايير الأخلاقية والقانونية الراسخة. على الدول أن تعمل معا لحظر أنظمة الأسلحة هذه قبل أن تتكاثر في العالم".

 

إن الحظر الوقائي لعام 1995 على أسلحة الليزر المسببة للعمى، والذي كان مدفوعا إلى حد كبير اعتمادا على شرط مارتنز، يوفر سابقة لحظر الأسلحة ذاتية التحكم عندما تقترب من أن تصبح حقيقة.

 

نُشر التقرير بالتعاون مع "العيادة الدولية لحقوق الإنسان" بكلية هارفرد للحقوق، التي تعمل فيها دوورتي مديرة مساعدة لقسم النزاع المسلح وحماية المدنيين.

 

ستجتمع أكثر من 70 حكومة في الأمم المتحدة بجنيف في الفترة من 27 إلى 31 أغسطس 2018، للمرة السادسة منذ عام 2014 بشأن التحديات التي تثيرها الأسلحة ذاتية التحكم، والتي تُعرف أيضا باسم "أنظمة الأسلحة الفتاكة ذاتية التحكم". أُضفي الطابع الرسمي على المحادثات في إطار "اتفاقية الأسلحة التقليدية"، وهي معاهدة رئيسية لنزع السلاح، في عام 2017، لكنها لم تُوجه بعد نحو هدف محدد.

 

وتحث هيومن رايتس ووتش وحملة "أوقفوا الروبوتات القاتلة" الدول الأطراف في الاتفاقية على الموافقة على بدء المفاوضات عام 2019 لوضع معاهدة جديدة تتطلب سيطرة بشرية ذات مغزى على أنظمة الأسلحة واستخدام القوة. تختار الأسلحة ذاتية التحكم الأهداف وتهاجمها من دون تحكم بشري حقيقي.

 

حتى اليوم، أيد 26 بلدا صراحة حظر الأسلحة ذاتية التحكم. كما طالب آلاف العلماء وخبراء الذكاء الاصطناعي، وأكثر من 20 من الحائزين على جائزة نوبل للسلام، وأكثر من 160 من القادة الدينيينومنظمات من مختلف الانتماءات بالحظر. في يونيو/حزيران، أصدرت غوغل مجموعة من المبادئ الأخلاقية التي تتضمن تعهدا بعدم تطوير الذكاء الاصطناعي لاستخدامه في الأسلحة.

 

في اجتماعات "اتفاقية الأسلحة التقليدية"، دعت جميع البلدان تقريبا إلى الاحتفاظ بأحد أشكال الرقابة البشرية على استخدام القوة. يعكس توافق الآراء على الحفاظ على سيطرة بشرية ذات مغزى، المماثل لحظر الأسلحة التي تفتقر إلى هذه السيطرة، المعارضة الواسعة للأسلحة ذاتية التحكم.

 

قيّمت هيومن رايتس ووتش وعيادة هارفرد الأسلحة ذاتية التحكم من خلال العناصر الأساسية لشرط مارتنز. هذا الشرط الوارد في "اتفاقيات جنيف" والذي يشار إليه في عديد من معاهدات نزع السلاح بسبب عدم وجود أحكام معاهدة دولية محددة حول موضوع ما. يضع هذا الشرط خط الأساس الأخلاقي للحكم على الأسلحة الناشئة.

 

وجدت الجماعات أن الأسلحة ذاتية التحكم تقوض مبادئ الإنسانية، لأنها لن تكون قادرة على تطبيق أي حكم قانوني وأخلاقي دقيق على قرارات استخدام القوة الفتاكة. بدون هذه الصفات الإنسانية، تواجه الأسلحة عقبات كبيرة في ضمان المعاملة الإنسانية للآخرين وإظهار الاحترام للحياة الإنسانية والكرامة.

 

كما أن الأسلحة ذاتية التحكم تتعارض مع ما يمليه الوعي العام. أدانت الحكومات والخبراء والجمهور على نطاق واسع فقدان السيطرة البشرية على استخدام القوة.

 

قد لا تنجح التدابير الجزئية، مثل التعليمات أو الإعلانات السياسية التي تفتقر إلى حظر ملزم قانونا، في القضاء على أخطار عديدة تفرضها الأسلحة ذاتية التحكم. بالإضافة إلى انتهاك شرط مارتنز، تثير هذه الأسلحة مخاوف قانونية أخرى، ومتعلقة بالمساءلة والأمن والتكنولوجيا.

 

في منشورات سابقة، تحدثت هيومن رايتس ووتش وعيادة هارفرد عن التحديات التي ستفرضها الأسلحة ذاتية التحكم على الامتثال للقانون الدولي الإنساني و"القانون الدولي لحقوق الإنسان"، وحلّلتا الفجوة في المساءلة عن الضرر غير القانوني الذي تسببه هذه الأسلحة، وردّتا على ناقدي الحظر الوقائي.

 

الدول الست والعشرين التي دعت إلى الحظر هي الجزائر، الأرجنتين، النمسا، بوليفيا، البرازيل، تشيلي، الصين (الاستخدام فقط)، كولومبيا، كوستاريكا، كوبا، جيبوتي، إكوادور، مصر، غانا، غواتيمالا، الفاتيكان، العراق، المكسيك، نيكاراغوا، الباكستان، بنما، بيرو، فلسطين، أوغندا، فنزويلا وزيمبابوي.

 

حملة "أوقفوا الروبوتات القاتلة"، التي بدأت عام 2013، هي تحالف يضم 75 منظمة غير حكومية في 32 دولة تعمل على فرض حظر استباقي على تطوير وإنتاج واستخدام أسلحة ذاتية التحكم. سوف تقدم دوورتي التقرير في عرض لحملة أوقفوا الروبوتات القاتلة أمام أعضاء "اتفاقية حظر أو تقييد استعمال أسلحة تقليدية معينة" والمقرر في 28 أغسطس/آب بالأمم المتحدة في جنيف.

 

قالت دوورتي إن "موجة المعارضة بين العلماء والقادة الدينيين وشركات التكنولوجيا والجماعات غير الحكومية والمواطنين العاديين تظهر أن الجمهور يفهم أن الروبوتات القاتلة تتجاوز العتبة الأخلاقية. تستحق مخاوفهم، التي تشاركها عديد من الحكومات، استجابة فورية".

  • تعليقات فيسبوك
  • اعلان