الاكثر قراءةتحليلات و آراءغير مصنف

الذكاء الاصطناعي في الإدارة العسكرية .. أنظمة جوسبل، لاڤندر، وأين أبي؟ أنموذجًا

بقلم: الباحثة منار عبد الغني علي / مصر

 

 

تشهد طبيعة الحروب تحولاً جوهرياً مع بروز حروب الجيل السادس التي يجسد الذكاء الاصطناعي جوهرها الأساسي، حيث لم يعد التفوق العسكري مقصوراً على التفوق العددي أو حجم التسليح التقليدي، بل أصبح مرهوناً بسرعة الخوارزميات وتعقيدها فيما يُعرف بـ”الحرب الخوارزمية”. ويهدف الدمج الاستراتيجي للذكاء الاصطناعي في المنظومة العسكرية إلى تعزيز سرعة ودقة اتخاذ القرارات، وتمكين أنظمة القيادة والسيطرة، وتطوير قدرات الرصد والمراقبة والاستجابة للتهديدات.

وتشهد ساحات القتال حول العالم ثورة صامتة تقودها أنظمة ذكية مثل “جوسبل” و”لافندر” و”وأين أبي”، حيث تمثل هذه الأنظمة الجيل الجديد من الأدوات القتالية التي تعيد تعريف مفاهيم القيادة والسيطرة والاستهداف. وتعمل هذه الأنظمة كعقل رقمي جماعي، حيث يستوعب “جوسبل” كميات هائلة من البيانات من مصادر متعددة ليقدم صورة شاملة للميدان القتالي، بينما يتخصص “لافندر” في تحليل الأنماط وتحديد الأهداف بسرعة خارقة، في حين يمثل “وأين أبي” النموذج الأكثر تعقيداً الذي يجمع بين الذكاء الاصطناعي والتعلم العميق لاتخاذ قرارات مستقلة. ما يميز هذه الثورة التقنية هو انتقالها من الدعم اللوجستي والتخطيطي إلى القلب النابض للعمليات القتالية، حيث أصبحت هذه الأنظمة قادرة على تحليل البيانات في الوقت الفعلي، واقتراح الخطط التكتيكية، بل وحتى تنفيذ عمليات الاستهداف بشكل شبه مستقل. هذا التحول يضعنا أمام واقع جديد حيث تتداخل القدرات البشرية والذكاء الاصطناعي في تشكيل مصير المعارك.

 

تستخدم الطائرات المسيرة والأقمار الصناعية الذكاء الاصطناعي لتحليل الصور واكتشاف تحركات العدو أو القواعد العسكرية المخفية

 

تطبيقات الذكاء الاصطناعي في المجال العسكري

يأتي المجال العسكري في مقدمة المجالات التي تشهد نقلة نوعية كبرى في استخدام الأتمتة، حيث يعمل الذكاء الاصطناعي على تعزيز القدرات العسكرية للدول من خلال ظهور أنواع جديدة من الأسلحة الذكية والمطورة بتقنيات متقدمة. وقد أدى تأثير الذكاء الاصطناعي إلى اتجاه متزايد من الجيوش العالمية لاستخدامه في أنظمتها القتالية، مع توقع نمو حجم سوق الذكاء الاصطناعي في المجال العسكري ليصل إلى 23.68 مليار دولار خلال الفترة 2027-2022، وبمعدل نمو سنوي يبلغ 30.67%([1])،  وتقدر قيمة الذكاء الاصطناعي في الصناعات العسكرية عالمياً بـ 9.2 مليارات دولار أمريكي عام 2023، مع توقع وصولها إلى 38.8 مليار دولار أمريكي بحلول عام 2028، وذلك بمعدل نمو سنوي مركب قدره 33.3% خلال الفترة 2028-2023. ويأتي هذا النمو مدفوعاً بعوامل عديدة، أبرزها التركيز المتزايد على تطوير أنظمة الليزر العسكرية عالية الدقة، وزيادة الاستثمارات في تطوير الحلول التي تدعم الذكاء الاصطناعي لتعزيز القدرات العسكرية.([2])

 

مجال الأسلحة المستقلة: تمثل أنظمة الأسلحة المستقلة فئة خاصة من الأنظمة التي تستخدم مجموعات أجهزة الاستشعار وخوارزميات الذكاء الاصطناعي لتحديد الهدف بشكل مستقل، واستخدام نظام السلاح للاشتباك وتدمير الهدف دون سيطرة بشرية يدوية على النظام. ويمكن لهذه الأنظمة تنفيذ العمليات في بيئات الاتصالات المتدهورة أو المحدودة، حيث قد لا تكون الأنظمة التقليدية قادرة على العمل. وتشمل الأشكال الرئيسية للأسلحة المستقلة الروبوتات العسكرية التي تستطيع القيام بمهام متنوعة داخل أرض المعركة، والطائرات المسيرة من دون طيار. وتتنوع أشكال الروبوتات العسكرية وأحجامها ووظائفها وفقاً للهدف من استخدامها في المعركة العسكرية، حيث تشمل روبوتات المناورة وإخلاء الجنود، والروبوتات المسؤولة عن الاشتباك ورمي القذائف، وروبوتات الكشف عن الألغام والمتفجرات.([3])

الطائرات من دون طيار (UAVs) والمركبات الأرضية الذاتية القيادة: فتستخدم على نحو متزايد في عمليات المراقبة والاستطلاع والقتال. ويمكن للذكاء الاصطناعي تمكين هذه الآلات من التنقل عبر التضاريس المعقدة، وتحديد الأهداف، وتنفيذ المهام بأقل قدر من التدخل البشري. كما تقوم أسراب الطائرات المسيرة من دون طيار بالعمل بشكل جماعي، والتحرك بصورة ذاتية لتنفيذ مهام قتالية.([4])

مجال المركبات المستقلة وشبه المستقلة: تقوم المركبات غير المأهولة شبه المستقلة بعمليات الاستطلاع والتجسس وجمع المعلومات وتدمير الأهداف تحت إشراف بشري، بينما تؤدي المركبات غير المأهولة المستقلة تماماً جميع هذه المهام دون أي تدخل بشري أثناء تنفيذ المهمة. وتشمل أبرز أشكال هذه المركبات الدبابات غير المأهولة والغواصات المسيرة، حيث تعمل الأخيرة على تنفيذ مهام لوجستية غير قتالية تتعلق باستخدام الخرائط الذكية والأقمار الصناعية.([5])

مجال الاستخبارات وتحسين عملية اتخاذ القرار: تحلل نظم الذكاء الاصطناعي المعلومات المتوافرة من الأقمار الصناعية وكاميرات المراقبة ومواقع التواصل الاجتماعي وأجهزة الاستشعار، لتقديم تحليلات وسيناريوهات آنية تساعد في تحسين عملية اتخاذ القرار ودعم القوات العسكرية في الميدان.([6])

مجال نظم التحكم والقيادة والسيطرة: فيمكن الاستفادة من الإمكانات التحليلية للذكاء الاصطناعي لدمج البيانات من أجهزة الاستشعار في جميع المجالات العسكرية وإنشاء مصدر واحد للمعلومات. وقد أدى ذلك إلى تطوير أنظمة متكاملة للقيادة والتحكم في جميع المجالات المشتركة.([7])

مجال عمليات الفضاء السيبراني: يؤدي الذكاء الاصطناعي دوراً محورياً في مواجهة عمليات الاحتيال والقرصنة الإلكترونية والهجمات الخبيثة، حيث يمكنه توقع الخطر والتهديد، ورصد مصادره، والتعرّف إلى هوية المهاجم، كما يساهم في تعزيز استخبارات التهديدات السيبرانية من خلال جمع المعلومات حول التهديدات المحتملة وتحليلها ونشرها.([8])

 

وعموماً، فإن التقدم السريع في تطبيقات الذكاء الاصطناعي في المجال العسكري يستدعي تطوير أطر تنظيمية وقانونية دولية لضمان استخدام هذه التقنيات بما يتوافق مع المعايير الأخلاقية والإنسانية، مع الحفاظ على السيطرة البشرية الفعالة وضمان الشفافية في عمل هذه الأنظمة المتقدمة.

 

ثانيًا: دراسة حالة أنظمة الاستهداف المعتمدة على الذكاء الاصطناعي:

  1. نظام “جوسبل”: آلية التصنيف الآلي للأهداف الجماعية.

نظام “جوسبل” (المعروف أيضًا باسم “هابسورا”) هو نظام ذكاء اصطناعي طورته وحدة الاستخبارات الشهيرة 8200 لتوليد قوائم أهداف بشكل آلي وسريع. أُطلق النظام عام 2019 بهدف إنشاء “بنك أهداف” ضخم يغطي الاحتياجات التشغيلية ويجنب النقص الذي كانت تواجهه القوات الجوية بعد فترات قصيرة من بدء العمليات العسكرية وكانت تجربة النظام الأولى في 2021 في قطاع غزة )[9](. يعتمد النظام على جمع البيانات من مصادر استخباراتية متعددة، بما في ذلك لقطات الطائرات بدون طيار، والاتصالات المقطوعة، وبيانات المراقبة، والمصادر المفتوحة. ويُدّعي أن النظام يستخدم تقنيات الذكاء الاصطناعي لمعالجة هذه البيانات الضخمة وتقديم توصيات هجومية للوحدات العسكرية، مع تضمين تقديرات عن الأضرار المدنية المحتملة. أما فيما يخص الدور البشري، فتشير التقارير إلى أنه يقتصر على مراجعة الأهداف التي يولدها النظام والتحقق منها قبل رفعها للقائد للموافقة النهائية، كما أن العملية تستلزم تحقيق “تطابق كامل” بين توصية “جوسبل” وتقييم المحلل البشري قبل تنفيذ الضربة. ومع ذلك، يبدي بعض المحللين شكوكًا حول قدرة النظام على تقييم التعقيدات المرتبطة بالاستهداف العسكري، مثل تقدير الأضرار الجانبية بدقة، مما يرجح أن دور النظام أقل استقلاليةً مما يُشاع، وأن الآلة تقوم بمعالجة البيانات واستخلاص الأنماط بينما يظل البشر مسؤولين عن صياغة الهدف النهائي.([10])

ويدعي الجيش “الإسرائيلي” أن الذكاء الاصطناعي ساعد في استهداف المسلحين بدقة أكبر خلال صراعه مع حماس- فهو بمثابة مصنع اغتيال جماعي- ولكن الزيادة في عدد القتلى في غزة تثير تساؤلات حول فعالية تلك الخوارزميات. وتكهن توبي والش، كبير العلماء في معهد الذكاء الاصطناعي بجامعة نيو ساوث ويلز، حول ما إذا كان الذكاء الاصطناعي فعالاً كما يُدعى أم أن قوات الجيش “الإسرائيلي” لا تُعطي أولوية لتقليل الضرر الجانبي.( ([11]

 

  1. نظام “لاڤندر”: إشكالية التقييم الآلي للمخاطر والتحيز الخوارزمي.([12])

صُمم نظام “لافندر” رسميًا لوضع علامة على جميع المشتبه بانتمائهم للأجنحة العسكرية لحركتي “حماس” و”الجهاد الإسلامي”، بمن فيهم منخفضو الرتبة، كأهداف محتملة للقصف. ويعمل البرنامج من خلال تحليل المعلومات المجمعة عن غالبية سكان قطاع غزّة البالغ عددهم 2.3 مليون نسمة عبر نظام مراقبة جماعية، ثم يقيم ويصنف احتمالية أن يكون الشخص نشطًا في الجناح العسكري. ويمنح النظام كل شخص تقييمًا من 1 إلى 100 يعبر عن مدى احتمالية كونه مقاتلاً، اعتمادًا على “سمات” متعددة مستمدة من بيانات التدريب.

وفقًا للمصادر، اعتمد الجيش بشكل شبه كامل على “لافندر” في الأسابيع الأولى من الحرب، حيث صنف ما يصل إلى 37,000 فلسطيني كمشتبه بهم- ومنازلهم- كأهداف محتملة للضربات الجوية. وتم منح موافقة واسعة للضباط لاعتماد قوائم القتل التي ينتجها النظام، دون اشتراط فحص دقيق لأسباب اختيار الآلة لتلك الأهداف أو مراجعة البيانات الاستخباراتية الأولية التي استندت إليها.

أكدت المصادر أن الدور البشري اقتصر في كثير من الأحيان على كون “ختم مطاطي” لقرارات الآلة، حيث كان الموظفون يخصصون حوالي “20 ثانية” فقط لكل هدف قبل التصريح بالقصف، وذلك بشكل أساسي للتأكد من أن الهدف الذي حدده “لافندر” هو ذكر. وكان هذا على الرغم من العلم المسبق أن النظام يرتكب ما يُعتبر “أخطاء” في حوالي 10% من الحالات، وهو معروف بتحديده أحيانًا لأفراد لديهم ارتباط ضعيف فقط بالجماعات المسلحة، أو لا ارتباط لهم على الإطلاق، كما قام الجيش بشكل منهجي بمهاجمة الأفراد المستهدفين أثناء وجودهم في منازلهم بدلاً من أثناء نشاطهم العسكري. ووفقًا للمصادر، كان السبب في ذلك أنه- من منظور استخباراتي- كان من الأسهل تحديد موقع الأفراد في منازلهم الخاصة. كما تم استخدام أنظمة آلية إضافية، بما في ذلك نظام يسمى “أين أبي؟” كُشف عنه هنا لأول مرة، خصيصًا لتتبع الأفراد المستهدفين وتنفيذ القصف عندما يدخلون مساكن عائلاتهم. وكانت النتيجة، كما شهدت المصادر، أن آلاف الفلسطينيين- معظمهم من النساء والأطفال أو أشخاص غير مشاركين في القتال- قُضى عليهم في ضربات جوية “إسرائيلية”، خاصة خلال الأسابيع الأولى من الحرب، بسبب قرارات برنامج الذكاء الاصطناعي.

ويختلف نظام “لافندر” عن “الإنجيل” أن الفرق الأساسي بين النظامين هو في تعريف الهدف: بينما يحدد “الإنجيل” المباني والهياكل التي يزعم الجيش أن المسلحين يعملون منها، فإن “لافندر” يحدد الأشخاص- ويضعهم على قائمة اغتيال.

 

  1. نظام أين أبي ؟: آليات التعقب المكاني والزماني للأهداف

يرتبط نظام “أين أبي؟” ارتباطاً عضوياً بنظامي “لافندر” و”جوسبل حيث يمثل الحلقة التنفيذية الأخيرة في سلسلة الاستهداف. ويعمل هذا النظام من خلال تتبع الموقع الجغرافي للهواتف المحمولة، بحيث يصدر إنذاراً للمشغلين العسكريين حال دخول الشخص المُصنَّف كهدف عسكري (بموجب نظام “لافندر”) إلى موقع محدد- يكون في الغالب مسكنه العائلي- ليتم تنفيذ الضربة في هذه اللحظة بالذات.( ([13]

 

وبالتالي من خلال دراسة هذه الأنظمة وآلية عملها، يمكن استخلاص التالي:

  1. تحول جوهري في طبيعة الحروب وإدارة الصراع: تعكس هذه الأنظمة انتقال الجيش “الإسرائيلي” من نموذج الاستهداف الدقيق والمحدود لكبار القادة والعناصر عالية الخطورة، إلى نموذج “الحرب الشاملة” ضد البنية التحتية البشرية للمقاومة، حيث لم يعد الهدف هو قائد معين، بل كل من يحتمل انتماؤه لحماس أو الجهاد الإسلامي، بغض النظر عن دوره أو رتبته، كما تقوم فلسفة هذه الأنظمة على “الإنتاج الضخم” للأهداف، فزيادة أعداد الضحايا المستهدفين يجعل عملية القصف أشبه بعملية إحصائية أو “حصاد” واسع النطاق بدلاً من عملية عسكرية انتقائية.

  2. تفويض القرارات الحيوية للآلة: فعندما تتحول العملية من تقييم بشري مفصل لكل هدف إلى مجرد “ختم مطاطي” آلي خلال 20 ثانية، تختفي المسؤولية الفردية. ومن ثم يصبح من الصعب تحديد من المسؤول عن قتل عائلة بأكملها إذا كان القرار في جوهره صادرًا عن خوارزمية. هذا يخلق “غلافًا تكنولوجيًا” يسمح للجنود والضباط بالتنصل من العبء النفسي والأخلاقي لعمليات القتل.

  3. استراتيجية ممنهجة لاستهداف النسيج الاجتماعي في غزة: استخدام نظام “أين أبي؟” لتتبع الأهداف إلى منازلهم وقصفهم ليلاً مع عائلاتهم ليس مجرد مسألة “تكتيكية سهلة”. من الناحية السياسية، يمكن تفسيره على أنه استراتيجية لتفكيك الروابط العائلية والمجتمعية، وإحداث صدمة جماعية عبر قتل أعداد كبيرة من المدنيين المرتبطين- ولو بشكل افتراضي- بالمقاومة. هذا يعزز منطق “العقاب الجماعي” كأداة لتحقيق أهداف أمنية.

  4. أزمة أخلاقية في عصر الذكاء الاصطناعي: تضع “إسرائيل” نفسها في قلب الجدال العالمي حول استخدام الذكاء الاصطناعي في الحروب، فهذه الأنظمة تمثل سابقة خطيرة قد تحذو حذوها جيوش ودول أخرى، مما يهدد بإضفاء الطابع الآلي على القتل ويقوض المبادئ الإنسانية في النزاعات المسلحة.

  5. تأثير على الرأي العام والدبلوماسية: الكشف عن هذه الأنظمة يزيد من العزلة الدولية “لإسرائيل”، خاصة بين الرأي العام الغربي الذي يتساءل عن الأخلاقيات التي تحكم العمليات العسكرية، كما يضع الحلفاء التقليديين (مثل الولايات المتحدة) في موقف صعب خاصة في ظل دعمها المطلق “لإسرائيل”.

 

وبالتالي، تسعى الحكومة “الإسرائيلية” إلى استخدام هذه الأنظمة داخليًا كدليل على ما تروّج له عن “تفوق” جيشها التكنولوجي وابتكاره لحلول “جذرية” لمواجهة حماس، في محاولة لتعزيز شرعيتها السياسية أمام الشارع “الإسرائيلي” الغاضب من اتهامات لحكومة نتنياهو بدفع البلاد إلى هذه الحرب. تجدر الإشارة إلى أن هذه التقنيات لا تعيد تشكيل منهجية القتال فقط، بل تُحدث تحولاً جوهريًا في قواعد الصراع، مخلّفةً سابقة دولية بالغة الخطورة في توظيف التكنولوجيا المتطورة لتنفيذ عمليات عسكرية تنتهك المبادئ الأساسية للقانون الدولي والإنساني. ويظل السؤال قائمًا: لماذا لم يُفضِ هذا التفوق التكنولوجي النوعي، رغم جسامته، إلى إنهاء العمليات العسكرية في غزة أو تحقيق انتصار واضح على حماس؟!

 

المصادر
  1. Larissa Kumas , “Artificial Intelligence in Military Applications,” Center for Diplomatic Affairs and Political Studies” , no. 32 , April 2024, p2.
https://en.dipam.org/wp-content/uploads/2024/04/Artificial-Intelligence-in-Military-Applications.pdf
  1. Artificial Intelligence in Security, Public Safety & National Security Market by Application (Finance, Law, Cyber Security, Defence/Military, Mass Transportation, Critical Infrastructure) By Type (Hardware, Software) And Region, Global Trends and Forecast From 2024 To 2030,( Exactitude Consultancy 2024).
https://exactitudeconsultancy.com/reports/36922/artificial-intelligence-in-security-public-safety-and-national-security-market/
  1. علي فرجاني ،” آليات وتبعات دخول الروبوتات العسكرية في سباق التسلح الجوى”، ( مجلة السياسة الدولية ، مركز الاهرام للدراسات السياسية و الاستراتيجية ، أغسطس 2023).
  2. إيهاب خليفة ،” التطبيقات العسكرية لنظم الذكاء الاصطناعي “،( المركز المصري للفكر والدراسات الاستراتيجية ، القاهرة ، أبريل 2020) . https://ecss.com.eg/8817/#_ftn2
  3. حاتم كريم الفلاحي ، ” الطيران المسيَّر: قاتل صامت غيَّر مسار الحروب”، (مركز أبعاد للدراسات الإستراتيجية، ديسمبر 2024) . https://2u.pw/8Mkpr
  4. إيهاب خليفة ،” التطبيقات العسكرية لنظم الذكاء الاصطناعي “، مرجع سابق .
 .7Utsav Sharma Gaire, ” Application of Artificial Intelligence in the Military: An Overview”,(Unity Journal: Prithivi Narayan Shah Research Center,   Nepal, Vol 4, Feb 2023),p167.
  1. غادة عامر ، عبدالله الحمادي ،” دور الذكاء الاصطناعي في التطبيقات العسكرية “، ( مجلة الدراسات الاستراتيجية والعسكرية ، المركز الديمقراطي العربي ، برلين ، العدد 19، يونيو 2023). https://democraticac.de/?p=90740
  2. ____ ، ” دور الذكاء الاصطناعي في الأمن السيبراني”، (المركز الأوروبي لدراسات مكافحة الإرهاب والاستخبارات ECCI، ألمانيا ، فبراير 2024).
  3. محمد يوسف، ” نظام “غوسبل”.. كيف ترتكب “إسرائيل” إبادة جماعية بالذكاء الاصطناعي؟” ، موقع الجزيرة ، ديسمبر ٢٠٢٣.
.11 Michael N. Schmitt, “Israel” – Hamas 2024 Symposium – The Gospel, Lavender, and the Law of Armed Conflict“, United States Military Academy , lieber institute, Jun 28, 2024
 .12Yuval Abraham, ”  ‘A mass assassination factory’: Inside “Israel’s” calculated bombing of Gaza” , +972 Magazine, November 30, 2023.
Larissa Kumas, Ibid, p 4.  See:–  Bethan McKernan ,  Harry Davies” ‘The machine did it coldly’: Israel used AI to identify 37,000 Hamas targets”, the Guardian, Apr 2024.
-Yuval Abraham, ” ‘Lavender’: The AI machine directing “Israel’s” bombing spree in Gaza”, +972, April 3, 2024.
 .13Michael N. Schmitt, “Israel – Hamas 2024 Symposium – The Gospel, Lavender, and the Law of Armed Conflict“, lieber institute,  Jun 28, 2024.
[1] ——, “Questions and Answers: Israeli Military’s Use of Digital Tools in Gaza,” Human Rights Watch, September 10, 2024.
https://www.hrw.org/news/2024/09/10/questions-and-answers-israeli-militarys-use-digital-tools-gaza

 

 

Loader Loading...
EAD Logo Taking too long?

Reload Reload document
| Open Open in new tab

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى