في ظل الحرب الإسرائيلية على غزة التي اندلعت في 7 أكتوبر 2023، كشفت الدراسة القانونية المرفقة أدناه، عن استخدام غير مسبوق لتقنيات الذكاء الاصطناعي من قبل الجيش الإسرائيلي، حيث تحوّلت الخوارزميات والبرامج الرقمية إلى أدوات مباشرة في تنفيذ المجازر الجماعية. من خلال أنظمة مثل "الإنجيل" و"لافندر" و"أين أبي"، تمّ تحديد الأهداف وقصف المدنيين دون رقابة بشرية أو تمييز قانوني، ما أدى إلى استشهاد عشرات الآلاف من الأبرياء. وتخلص الدراسة إلى أن إسرائيل ارتكبت انتهاكات جسيمة للقانون الدولي الإنساني، داعيةً إلى تحقيق دولي ومحاسبة الجهات المسؤولة عن توظيف الذكاء الاصطناعي في تنفيذ سياسات الإبادة الجماعية.
تعرض هذه الورقة، من إصدار مركز الزيتونة للدراسات، تقنيات وبرامج الذكاء الاصطناعي (AI) التي استخدمها الاحتلال الإسرائيلي في الحرب على غزة، وذلك في تحديد الأهداف وتنفيذ هجمات دموية، حيث أدّت هذه التقنيات حتى 8/1/2025 إلى مقتل أكثر من 57,136 فلسطينياً. فبدلاً من تسخير هذه التقنيات الحديثة لتحقيق التقدّم الإنساني، وظّفتها "إسرائيل" في الإبادة الجماعية، وفق ما يسمى بـ"من يتطور أكثر، يقتل أكثر".
تهدف هذه الورقة إلى توضيح العلاقة بين التكنولوجيا والحرب، وبيان الأساليب الحديثة للإبادة الجماعية في غزة، مع التركيز على برامج الذكاء الاصطناعي غير المادية التي استخدمها الاحتلال الإسرائيلي، وتناول الموقف القانوني من استخدامها.
كما تغطي الدراسة الذكاء الاصطناعي والحرب الحديثة ضمن النطاق الجغرافي لقطاع غزة، في الفترة من 7/10/2023 حتى 19/1/2025. وقد اعتمد الباحثان المنهجيْن الوصفي التحليلي والتطبيقي لتحليل البرامج المستخدمة في الحرب وتطبيقها على الواقع.
تناولت الورقة أولاً مفهوم الذكاء الاصطناعي، من حيث تعريفه وأبرز جوانب أهميته والتقديرات المستقبلية المرتبطة بتطوره واستخدامه. ثم تناولت ثانياً برامج الذكاء الاصطناعي التي استخدمها الاحتلال الإسرائيلي في عدوانه على قطاع غزة، مع شرح لطبيعتها وآلية عملها وتأثيرها المباشر على المدنيين. وأخيراً، تطرّقت إلى موقف القانون الدولي من استخدام تقنيات الذكاء الاصطناعي في النزاعات المسلحة، مبيّنة القصور التشريعي في مواكبة هذا النوع من التطور التكنولوجي.
وقد أظهرت الدراسة أن تقنيات الذكاء الاصطناعي التي استخدمها الاحتلال الإسرائيلي في حربه على غزة تنقسم إلى تقنيات مادية، مثل الروبوتات والطائرات المسيّرة، وأخرى غير مادية، كبرامج "الإنجيل" و"لافندر" و"أين أبي". وقد أثبتت هذه الأسلحة عشوائية استخدامها، إذ تنفِّذ عمليات قتل دون تمييز بين الأهداف المدنية والعسكرية، مما يجعلها مخالفة للقانون الدولي الإنساني. كما أن البرامج غير المادية تُصنَّف كأنظمة ذكية، لكنها في الواقع تؤدي إلى تحويل المدنيين إلى أهداف عسكرية بشكل خاطئ، ما يفقدها صفة الذكاء. وتبيّن أيضاً وجود قصور واضح في القانون الدولي بشأن تنظيم هذه التقنيات الحديثة، وغياب تشريع مناسب يضبط استخدامها.
وتُوصي الدراسة بضرورة وضع تشريع دولي خاص يُنظِّم استخدام تقنيات الذكاء الاصطناعي في المجال العسكري، بما يضمن توافقها مع مبادئ القانون الدولي الإنساني، ويحدّ من آثارها العشوائية والخطيرة. كما تدعو إلى إنشاء هيئة دولية متخصصة تتولى مراقبة وتوجيه استخدام الذكاء الاصطناعي، وتضع قواعد واضحة لكيفية توظيفه، خصوصاً في أوقات النزاعات. وتؤكّد الدراسة على أهمية الاستجابة لدعوة الأمين العام للأمم المتحدة أنطونيو غوتيريشAntónio Guterres لإبرام معاهدة دولية تحظر أنظمة الأسلحة القاتلة ذاتية التشغيل، وتنظِّم جميع أنواع الأنظمة المستقلّة التي تُستخدم دون إشراف بشري، بما يشمل برامج الذكاء الاصطناعي، لا الاكتفاء بتنظيم الأسلحة المادية فقط، نظراً لما تشكّله من تهديدات وانتهاكات إنسانية وقانونية جسيمة.
لتحميل الدراسة من هنا
المصدر: مركز الزيتونة للدراسات والاستشارات
الكاتب: أ. ضياء نعيم الصفدي وأ. حمزة علي تايه