تطبيقات الاستخدام المزدوج في الحروب الحديثة
يمتد استخدام الذكاء الاصطناعي في المجال العسكري من التخطيط على مستوى القيادات العليا إلى التنفيذ المباشر في الميدان. ومن أبرز الاستخدامات الحالية:
-
الاستخبارات والمراقبة والاستطلاع: تساعد أنظمة الذكاء الاصطناعي في تحليل كميات هائلة من بيانات المستشعرات وصور الأقمار الصناعية واعتراضات الإشارات، لاستخراج أنماط يصعب على الإنسان اكتشافها بسرعة. وفي عام ٢٠٢٤ أشار تقرير لوزارة الدفاع الأمريكية إلى أن التقدم في نماذج اللغة الكبيرة لدى الصين، خاصة في القطاعين التجاري والأكاديمي، قلّص الفجوة في الأداء مقارنة بالنماذج الأمريكية، ما يجعل التحليل الاستخباراتي أكثر تطورًا.
-
أنظمة الأسلحة ذاتية التشغيل: يمكن لبعض الأنظمة ذاتية التشغيل رصد الأهداف وتتبعها والاشتباك معها مع قدر محدود من إشراف البشر. وفي حرب روسيا وأوكرانيا أصبحت الطائرات المسيّرة سببًا رئيسيًا للخسائر في ساحة المعركة. كما توقع مسؤولون أوكرانيون أن الطائرات المسيّرة من نوع منظور الشخص الأول التي تعمل بالذكاء الاصطناعي قد تحقق معدلات إصابة أعلى من الطائرات التي يقودها البشر يدويًا.
-
الصيانة التنبؤية واللوجستيات: تستخدم القوات الجوية الأمريكية الذكاء الاصطناعي ضمن برنامج الصيانة المعتمدة على الحالة لطائرات مقاتلة متقدمة، عبر تحليل بيانات المستشعرات للتنبؤ بالأعطال قبل وقوعها، ما يقلل فترات التوقف ويخفض التكاليف.
-
القيادة والسيطرة: يساعد الذكاء الاصطناعي القادة العسكريين على فرز معلومات الميدان بسرعة وتقييم الخيارات الممكنة بزمن أسرع من قدرة الإنسان. وتوجد مبادرات تدمج الذكاء الاصطناعي مع الشبكات المتقدمة والمستشعرات والأتمتة عبر مجالات القتال المختلفة (البر والجو والبحر والفضاء والفضاء الإلكتروني) لدعم قرارات متزامنة وفي الوقت الحقيقي.
-
العمليات السيبرانية: يدعم الذكاء الاصطناعي القدرات الهجومية والدفاعية في الفضاء الإلكتروني، مثل اكتشاف الثغرات تلقائيًا، ورصد البرمجيات الخبيثة، وتطوير أساليب تضليل وهندسة اجتماعية أكثر تعقيدًا.
الذكاء الاصطناعي في غزة وأوكرانيا: حرب الخوارزميات
قدّمت الصراعات الأخيرة أمثلة عملية على توظيف الذكاء الاصطناعي في المجال العسكري، وما يرافق ذلك من تكلفة إنسانية. في غزة على سبيل المثال، نُسب إلى منظومة «لافندر» أنها حدّدت ما يصل إلى ٣٧٠٠٠ هدف محتمل مرتبط بعناصر من «حماس»، مع حديث عن نسبة خطأ تقارب ١٠٪. كما نُقل عن أحد العاملين في الاستخبارات الإسرائيلية قوله إن القصف كان يستهدف الأفراد في منازلهم «من دون تردد»، لأن ذلك يُعد أسهل من منظور جمع المعلومات. وقد سرّعت المنظومة وتيرة الضربات، لكنها في الوقت نفسه أثارت أسئلة صعبة حول المساءلة عندما تقود الخوارزميات إلى إصابة مدنيين.
وتشير الروايات المتداولة إلى أن تصميم هذا النوع من الأدوات يقوم على مفاضلات واضحة بين السرعة والدقة: أي تفضيل توسيع نطاق الاستهداف على تقليل الأخطاء. ومع أن النماذج الحاسوبية قد تعالج بيانات ضخمة بسرعة، فإنها لا تمتلك حكمًا بشريًا على «صفة المقاتل»، ما يجعل «الإيجابيات الكاذبة» خطرًا مباشرًا حين تتحول نتائج التحليل إلى قرارات قتل.
في أوكرانيا، اتخذ الاستخدام مسارًا مختلفًا نسبيًا، إذ يجري توظيف الذكاء الاصطناعي لتعزيز قدرات الطائرات المسيّرة في بيئة يتصاعد فيها التشويش الإلكتروني، ولتحسين التنسيق والفعالية في العمليات الخاصة. وصرّحت نائبة وزير الدفاع الأوكراني كاتيرينا تشيرنوهورينكو بوجود «عشرات الحلول» من شركات أوكرانية تُشترى وتُسلّم بالفعل إلى القوات المسلحة وغيرها من تشكيلات الدفاع. وفي المقابل، تبرز دينامية «سباق عملياتي» حيث تسعى الأطراف إلى زيادة الاستقلالية والذكاء في الأنظمة غير المأهولة، بما يرفع وتيرة الابتكار ويضاعف آثار القرارات التقنية على أرض المعركة.
حين تُخطئ الخوارزميات: القيود القانونية والتقنية على الاستهداف
إن إدماج الذكاء الاصطناعي في أنظمة عسكرية قاتلة يثير مخاوف إنسانية تتجاوز مسألة «هل التقنية دقيقة أم لا». فالمشكلة الأعمق أن الذكاء الاصطناعي يواجه صعوبة بنيوية في احترام مبدأ التمييز الذي يفرض حماية المدنيين عبر التفريق بينهم وبين المقاتلين وفقًا لقواعد القانون الدولي الإنساني.
هناك فجوات أساسية تجعل الاعتماد عليه في الاستهداف مسألة شديدة الإشكال:
-
فهم السياق: الذكاء الاصطناعي لا يفهم التعقيدات الاجتماعية والثقافية والظرفية التي تحدد صفة الشخص. فحمل السلاح قد يعني مقاتلًا، أو مدنيًا يدافع عن منزله، أو راعيًا يحمي مواشيه.
-
تقدير التناسب: القانون الدولي الإنساني يشترط ألا تُحدث الضربة ضررًا مدنيًا «مفرطًا» مقارنة بالميزة العسكرية المتوقعة. وقد أشارت منظمة هيومن رايتس ووتش إلى التشكيك في قدرة الأنظمة الروبوتية على إجراء هذا النوع من التقييمات الدقيقة والمتغيرة.
-
الحكم الأخلاقي: الآلات لا تمتلك رحمة أو شفقة أو إدراكًا لكرامة الإنسان، وهي عناصر لعبت تاريخيًا دور «فرامل» أمام الانزلاق إلى انتهاكات واسعة أثناء الحروب.
-
المساءلة: مع الأسلحة ذاتية التشغيل تتوزع المسؤولية بين المبرمجين والمصنّعين والمشغلين والقيادات، ما يجعل تحديد المسؤول الفردي أصعب. كما حذرت تحليلات من أن الإنسان يميل إلى تصديق ما تقوله الأنظمة الحاسوبية، خصوصًا حين تكون سرعة القرار أعلى من قدرة البشر على المتابعة والتحقق.
ولا تتوقف المخاطر عند هذا الحد، إذ تمتد إلى انحيازات بيانات التدريب. فإذا كانت بيانات التاريخ العسكري تميل لإبراز الرجال كمقاتلين، قد تُنتج الأنظمة تحيزًا ضمنيًا يجعل «الذكر = مشتبه به». وقد طُرحت هذه الإشكالية صراحة في نقاشات حول أنظمة الاستهداف المعتمدة على البيانات، بما يخلق خطرًا أكبر على فئات بعينها، خصوصًا المجتمعات التي عانت تاريخيًا من أنماط استخدام قوة تمييزية.
ضوابط التصدير ونقل التكنولوجيا: تحديات السيطرة والالتفاف
مع إدراك الحكومات للأهمية الاستراتيجية للذكاء الاصطناعي، جرى توسيع أنظمة ضوابط التصدير بشكل ملحوظ. في الولايات المتحدة، فرض مكتب الصناعة والأمن متطلبات ترخيص عالمية على «أوزان النماذج» الخاصة بأكثر نماذج الذكاء الاصطناعي تقدّمًا، إلى جانب توسيع القيود على الشرائح الحاسوبية المتقدمة، بهدف حماية الأمن القومي ومنع إساءة الاستخدام أو التحويل غير المشروع للتكنولوجيا.
لكن هذه الضوابط تواجه مفارقة صعبة. فإذا كانت القيود واسعة جدًا، قد تُبطّئ البحث العلمي والابتكار التجاري المشروع وتُرهق الجامعات والشركات بتكاليف امتثال عالية. وإذا كانت رخوة، فإنها تفتح الباب أمام حصول الخصوم على قدرات متقدمة عبر السوق الرمادية أو الوسطاء.
كما أن فعالية الضوابط تبقى غير مضمونة بسبب صعوبة التنفيذ عبر سلاسل توريد عالمية معقدة. تقارير حديثة تشير إلى أن تهريب الشرائح والالتفاف على القيود يحدث عبر شركات واجهة ووسطاء وممارسات إخفاء المصدر، ما يجعل إنفاذ الضوابط تحديًا مستمرًا.
وفي هذا السياق، ظهرت اتهامات إعلامية تتعلق بحصول جهات صينية، ومنها شركة «ديب سيك»، على شرائح محظورة عبر قنوات غير مباشرة لتدريب نماذج متقدمة، وهو ما يعكس كيف يمكن للقيود أن تُنتج سباقًا بين تشديد الأنظمة وتطوير أساليب الالتفاف عليها.
يعاني المجتمع الدولي في بناء إطار حوكمة موحّد للذكاء الاصطناعي ذي الاستخدامين. فبدلًا من نهج عالمي متماسك، تشكّلت فسيفساء من سياسات وطنية، واتفاقات متعددة الأطراف، وقمم رفيعة المستوى، وإعلانات وأطر عمل، والتزامات طوعية.
يعكس هذا المشهد المُجزّأ انقسامات جيوسياسية أعمق. فاعتبار الذكاء الاصطناعي محورًا للتنافس الاستراتيجي يدفع الولايات المتحدة إلى بناء منظومة حوكمة ومعايير مع شركائها المتقاربين سياسيًا وأمنيًا، في مقابل سعي الصين إلى ترسيخ رؤيتها ومعاييرها عبر شبكات الشراكات والتقنيات والبنى التحتية العابرة للحدود.