أ.د. غادة محمد عامرمقالات رأي

استكشاف دور الذكاء الاصطناعي في تعزيز انتهاكات حقوق الإنسان في إسرائيل

أ.د. غادة محمد عامر
عميد- كلية الهندسة – جامعة مصر للعلوم والتكنولوجيا
زميل ومحاضر الأكاديمية العسكرية للدراسات العليا والاستراتيجية

أثارت التحقيقات الإعلامية الأخيرة تساؤلات حول استخدام أنظمة الذكاء الاصطناعي الإسرائيلية مثل “لافندر” و”الإنجيل” في تنفيذ المجازر والدمار بالإراضي الفلسطينية. يمثل هذا الاستخدام انتهاكًا صارخًا لحقوق الإنسان، ويعتمد على تقنيات متطورة مثل أنظمة المراقبة البيومترية وأدوات الشرطة الرقمية. إن الحرب التي تعتمد على الذكاء الاصطناعي التي تشنها إسرائيل في الوقت الراهن تبرز الحاجة الملحة لحظر استخدام تكنولوجيا تنتهك حقوق الأفراد سواء في حالات السلم أو الحرب.

كما هو معروف، لم يكن استخدام إسرائيل للذكاء الاصطناعي في الحروب أمرًا جديدًا. فقد استخدمت البلاد قطاع غزة كحقل اختبار للعديد من التقنيات والأسلحة الجديدة، مما ساهم في توسيع نطاق صادراتها العسكرية إلى دول أخرى. تم وصف الهجوم العسكري الذي استمر 11 يومًا على غزة في مايو 2021 بأنه “أول حرب تعتمد على الذكاء الاصطناعي”.

ضمن استراتيجيتها الحالية، استخدمت إسرائيل ثلاث فئات من أدوات الذكاء الاصطناعي. الفئة الأولى تتضمن أنظمة الأسلحة المستقلة القاتلة (LAWS) والأسلحة شبه المستقلة (semi-LAWS). تم تزويد الجيش الإسرائيلي بطائرات مسيّرة رباعية المراوح مزودة بأسلحة رشاشة وصواريخ لمراقبة وإرهاب وقتل المدنيين الفلسطينيين الذين يختبئون في مناطق آمنة. وفقًا لشهادات السكان في مخيم النصيرات، بثت بعض الطائرات دون طيار أصوات بكاء النساء والأطفال بهدف استدراجهم.

قبل عدة سنوات، استخدمت إسرائيل “طائرات انتحارية بدون طيار” و”آلات قنص روبوتية”، بالإضافة إلى أبراج تعمل بتكنولوجيا الذكاء الاصطناعي لتأسيس “مناطق قتل آلية” على الحدود مع غزة. في 2021، قامت بتطوير روبوت عسكري شبه مستقل يسمى “جاكوار”، والذي يعد من بين الروبوتات العسكرية الرائدة عالميًا القادرة على القيام بدور الجنود على الخطوط الأمامية. تم تصنيعه بواسطة شركة الصناعات الفضائية الإسرائيلية (IAI)، وتستخدمه إسرائيل مع تجهيزات حديثة تشمل كاميرات عالية الدقة ونظام مضخم صوتي يمكن التحكم فيه عن بُعد، مما يُعزّز من كفاءته في بيئات النزاع.

أما الفئة الثانية من أدوات الذكاء الاصطناعي التي استخدمتها إسرائيل فترتكز على أنظمة التعرف على الوجه والمراقبة البيومترية. فقد كانت الغزو البري فرصة لتوسيع نطاق المراقبة البيومترية للفلسطينيين، والذي تم استخدامه سابقًا في الضفة الغربية والقدس الشرقية. كما قامت بعض التقارير بالكشف عن استخدام الجيش الإسرائيلي لنظام موسع للتعرف على الوجه لفرض مراقبة جماعية على الفلسطينيين دون علمهم أو موافقتهم، ما يعكس مدى خطورة تلك التقنية في تعزيز السيطرة العسكرية والرقابية.

تكنولوجيا رماية الحديثة وتأثيرها على حقوق الإنسان

يعتمد النظام المعتمد على تكنولوجيا حديثة من شركة “كورسايت” الإسرائيلية و”جوجل فوتوز” لتحديد الوجوه من بين الحشود، حتى من خلال لقطات الطائرات بدون طيار. تشمل الفئة الثالثة أنظمة توليد الأهداف الآلية، مثل نظام Gospel الذي يحدد أهدافًا مرتبطة بالبنية التحتية، ونظام Lavender الذي يستهدف الأفراد، بالإضافة إلى نظام “Where is Daddy؟” المصمم لتعقب المشتبه بهم أثناء وجودهم في منازلهم مع أسرهم.

في هذا السياق، أدانت الأمم المتحدة الأسلحة الآلية وشبه الآلية، باعتبارها “غير مقبولة سياسيًا وأخلاقيًا”. تتزايد الدعوات العالمية لحظر هذه الأنظمة؛ لأنها تعاني من قلة الدقة وتفتقر إلى التحقق البشري، مما يثير قلقًا وجوديًا حول تعارض استخدامها مع حقوق الإنسان والكرامة الإنسانية الأساسية. تشير التقارير إلى أن أنظمة الاستهداف الذكية المستخدمة في العمليات العسكرية تؤدي إلى تدمير وقتل، كما صرح جيش الدفاع الإسرائيلي بأنهم يركزون على إحداث أكبر قدر من الضرر.

الجيش الإسرائيلي يستخدم صواريخ غير موجهة، أو ما يُعرف “بقنابل غبية”، لاستهداف مزعومين تم تحديدهم باستخدام نظام Lavender. هذا النهج نتج عنه موت العديد من الفلسطينيين، مما أدى إلى مستوى من الدمار لم نشهده منذ الحرب العالمية الثانية، كما أوضحت الأمم المتحدة. تسبب استخدام هذه الأنظمة الذكية في تخفيف المسؤولية البشرية عن قرارات يتعلق بها الحياة والموت، مما يجعل من الصعب الوصول إلى محاسبة أخلاقية لمن يستخدمون مثل هذه الأنظمة.

علاوة على ذلك، تستحق أنظمة توليد الأهداف المعتمدة على الذكاء الاصطناعي في الحرب ومراقبة البيومترية الجماعية اهتمامًا خاصًا للحد من مخاطرها على حقوق الإنسان والإبادة الجماعية المحتملة لبعض الشعوب. يتضح من هذه النقاط أن البنية التحتية للمراقبة التي أنشأت ونشرت في أوقات السلم قد تم إعادة استخدامها بسهولة خلال النزاعات المسلحة، ما يؤدي إلى انتهاكات خطيرة لحقوق الإنسان.

يثير هذا الأمر تساؤلات حول دور شركات التكنولوجيا الكبرى، مثل جوجل وأمازون وميتا، في توفير التقنيات المدنية التي يمكن استخدامها للأغراض العسكرية. تقدم خدمات الحوسبة السحابية والتعلم الآلي في Project Nimbus جزءًا من هذه المشكلة، حيث تُستخدم البيانات الوصفية من “واتساب” المملوك لشركة ميتا لتوفير المعلومات لنظام الاستهداف “لافندر”.

تعتبر المشاركة المستمرة لشركات مثل جوجل وأمازون وميتا في تقديم هذه الخدمات للحكومة الإسرائيلية تواطئًا محتملاً في الجرائم المرتكبة ضد الشعب الفلسطيني في غزة. الأنظمة المستخدمة في غزة، بالإضافة إلى مختبر المراقبة الجماعية الذي أنشأته الحكومة الإسرائيلية، تشير إلى مستقبل أكثر كارثية. يجب أن ننظر إلى التأثير المحتمل لهذه الأنظمة على حقوق الإنسان، سواء في حالة تعطيلها أو في حالة عملها بشكل فعّال، حيث أن تقليص الدور البشري يحمل عواقب وخيمة على كرامة الناس وسلامتهم.

مقالات ذات صلة

زر الذهاب إلى الأعلى