الذكاء الاصطناعي وساحة القتل في غزة

2025.09.04 - 09:17
Facebook Share
طباعة

 في عالم يتسارع فيه التطور التكنولوجي، أصبح الذكاء الاصطناعي أكثر من مجرد أداة للابتكار. إنه قوة مزدوجة الوجه، قادرة على دفع البشرية إلى آفاق جديدة، وفي الوقت ذاته، تحمل تهديدات لا تقل خطورة عن السلاح النووي. وبينما يُمكن للذكاء الاصطناعي تحسين حياتنا، يكشف الواقع الأخير في قطاع غزة كيف يمكن لهذه التكنولوجيا أن تُستخدم كأداة قتال مميتة ضد المدنيين.


في السادس من أغسطس 2025، كشفت تقارير عن استخدام جيش الاحتلال الإسرائيلي للذكاء الاصطناعي في تنفيذ هجمات موجهة ضد سكان غزة. تركزت المعلومات حول مجموعة من الأنظمة الذكية، أبرزها نظام "لافندر"، الذي يقوم بتصنيف السكان والمشتبه فيهم واتخاذ قرارات بشأن ضربات جوية شبه مستقلة عن الإشراف البشري المباشر. هذه الأنظمة تعتمد على كميات هائلة من البيانات، تشمل مكالمات الهاتف، الأنماط الاجتماعية، حركة الأشخاص، وربطها بالأنشطة المشتبه فيها.


نظام "لافندر" لا يكتفي بتقييم الأفراد بل يتنبأ بما يسمى "الضرر الجانبي" أو عدد المدنيين الذين قد يُقتلون أثناء استهداف المشتبه بهم. وفق التقديرات الأولية، قد يصل عدد الضحايا المدنيين مع كل ضربة إلى عشرات الأشخاص، بينما يصل العدد الإجمالي في العمليات الكبرى إلى عشرات الآلاف، ليصبح ما يحدث في غزة أكبر من أي كارثة مشابهة في التاريخ الحديث من حيث حجم القتل العشوائي الناتج عن استخدام الذكاء الاصطناعي.


إلى جانب "لافندر"، هناك نظام "أين أبي" الذي يتتبع الإشارات والاتصالات، ونظام "الإنجيل" الذي يركز على المنشآت والمرافق الحيوية. هذه الأنظمة الثلاثة تُشكل ما يُعرف بثلاثية الموت، والتي تعمل معًا على أتمتة العمليات العسكرية وتوجيه الضربات بدقة عالية، دون التدخل البشري الكافي.


ما يجعل الوضع أكثر خطورة هو الاعتماد شبه الكامل على هذه البرمجيات، حيث يُسمح للبشر بمراجعة قرارات الضربات لمدة عشرين ثانية فقط قبل تنفيذها. هذا الأمر يفتح الباب أمام أخطاء جسيمة، سواء كانت ناجمة عن تحيز البيانات أو عن تقديرات غير دقيقة، مما يزيد من حجم الخسائر المدنية.


اللافت أن هذه الأنظمة ليست وليدة الصدفة؛ فقد تم تطويرها منذ عام 2021 بالتعاون بين الوحدة 8200 التابعة لجيش الاحتلال وعملاق الحوسبة مايكروسوفت، باستخدام الخدمات السحابية لتخزين وتحليل ملايين المكالمات والمعلومات الشخصية لسكان القطاع. هذا التعاون أتاح للأنظمة القدرة على التنبؤ بالأنماط والسلوكيات، لكن مع هامش خطأ كبير قد يصل إلى 10%، أي أن كل عشرة أشخاص يُستهدفون بشكل خاطئ واحد منهم على الأقل، مما يضاعف الأثر الإنساني المأساوي.


التداعيات الأخلاقية والقانونية لهذا الاستخدام الهائل للذكاء الاصطناعي واضحة: هل يُمكن تحميل المدنيين المسؤولية عن أخطاء أنظمة صُممت لتحديد أهدافهم بالقوة؟ وهل يُمكن اعتبار هذه العمليات مجرد "خطأ تقني" أم أنها تعكس استراتيجية متعمدة لإحداث أكبر قدر ممكن من الدمار؟


بالرغم من هذه المخاطر، يواصل الاحتلال تطوير هذه الأنظمة والتوسع في استخدامها، مما يحول الذكاء الاصطناعي إلى أداة إبادة، تتجاوز قدرته أي سلاح تقليدي. بينما يزعم بعض الخبراء العسكريين أن هذه التكنولوجيا تقلل من المخاطر على الجنود، إلا أن الجانب الإنساني يُعاني من النتائج المأساوية، حيث تجاوز عدد الضحايا المدنيين في غزة 60 ألف شخص، مع المزيد من المفقودين والمصابين.


هذا الواقع يطرح أسئلة جوهرية حول مسؤولية المجتمع الدولي، وكيفية مراقبة استخدام الذكاء الاصطناعي في الحروب الحديثة، ومنع تحوله إلى أداة إبادة جماعية. كما يسلط الضوء على هشاشة الأنظمة الأخلاقية والقانونية أمام التكنولوجيا الحديثة، وما يترتب على ذلك من تهديد مباشر لحياة المدنيين الأبرياء.


يبقى السؤال الملح: كيف يمكن للبشر السيطرة على الذكاء الاصطناعي حين يُستخدم كأداة حرب مميتة؟ وهل ستظل التكنولوجيا في خدمة الإنسانية، أم أنها تتحول تدريجيًا إلى وسيلة لإبادة المدنيين تحت غطاء الدقة التقنية؟ غزة اليوم تقدم نموذجًا صارخًا لهذه المعضلة، حيث يتداخل الذكاء الاصطناعي مع السياسة والحرب، ليصبح القرار بين الحياة والموت أحيانًا مجرد مسألة بيانات وإشارات رقمية.


في النهاية، ما يحدث في غزة هو تحذير صارخ من مستقبلٍ يمكن أن تتحول فيه البرمجيات الذكية إلى قاتل أعمى، لا يميز بين مقاتل ومدني، بين هدف مشروع وآخر بريء، ليؤكد أن التكنولوجيا وحدها لا تكفي؛ بل يجب أن ترافقها ضوابط أخلاقية وقوانين صارمة تحمي الإنسانية من بطش الذكاء الاصطناعي الموجه للحروب.

Facebook Share
طباعة عودة للأعلى
اضافة تعليق
* اكتب ناتج 9 + 2