Soldier in engineering role uses AI application on laptop to manage server hub systems. Army commander reviews secret intelligence information using artificial intelligence in data center, camera A

الذكاء الاصطناعي بين المدني والعسكري: فرصة أم خطر؟

المقدمة

أصبح الذكاء الاصطناعي من أهم تقنيات هذا القرن. نراه في الطب، والتسوق، والبحث العلمي. لكن المشكلة أن الشيء نفسه الذي يساعد الطبيب على اكتشاف مرضٍ مبكرًا، يمكن أن يساعد أيضًا على توجيه سلاح يعمل ذاتيًا. والنظام نفسه الذي يقترح عليك فيديوهات أو منتجات، يمكن أن يُستخدم لتحديد أهداف عسكرية. هذه هي فكرة «الاستخدام المزدوج»: تقنية مدنية يمكن تحويلها بسرعة إلى أداة عسكرية.

وهذا يغيّر قواعد الأمن العالمي. فالصين تعتبر الذكاء الاصطناعي جزءًا أساسيًا من تحديث جيشها، وتتحدث عن بناء قدرات «حرب خوارزمية» و«حرب شبكية» بحلول عام ٢٠٣٠. وفي الوقت نفسه، أظهرت حروب مثل أوكرانيا وغزة أن أدوات الاستهداف المدعومة بالذكاء الاصطناعي لم تعد مجرد فكرة مستقبلية، بل دخلت الواقع. ومن هنا يظهر سؤال حساس: هل يمكن الاستفادة من الذكاء الاصطناعي لتعزيز الأمن من دون أن يقود ذلك إلى كوارث إنسانية؟

التحول الكبير: التكنولوجيا التجارية تقود الجيوش

في الماضي، كانت الجيوش هي التي تبتكر أولًا، ثم تنتقل التكنولوجيا إلى المدنيين. الإنترنت ونظام تحديد المواقع أمثلة شهيرة على ذلك. اليوم يحدث العكس: الشركات والجامعات تبتكر لأغراض تجارية، ثم تأتي الجيوش لتأخذ هذه التقنيات وتحوّلها إلى أدوات عسكرية. بمعنى آخر: الابتكار أصبح «من المدني إلى العسكري»، وليس العكس.

وهذا التحول مهم جدًا لأن الذكاء الاصطناعي لا يتطور داخل مؤسسات حكومية فقط، بل داخل شركات خاصة ومختبرات جامعات. هذا يجعل التحكم فيه أصعب بكثير من الأسلحة التقليدية، لأن من يصنع الأدوات الأساسية ليس بالضرورة دولة واحدة أو جيشًا واحدًا.

حتى حجم الأموال يوضح الصورة. فاستثمارات وزارة الدفاع الأمريكية المعلنة في الذكاء الاصطناعي ارتفعت من نحو ٦٠٠ مليون دولار عام ٢٠١٦ إلى حوالي ١٫٨ مليار دولار عام ٢٠٢٤، مع أكثر من ٦٨٥ مشروعًا نشطًا. أما إنفاق الصين فقد يكون أكبر، لكن الأرقام الدقيقة غير واضحة. وفي أوروبا، خصّص الاتحاد الأوروبي ١٫٥ مليار يورو لبحث وتطوير مرتبط بالدفاع عبر برامج مثل صندوق الدفاع الأوروبي.

الخلاصة هنا بسيطة: الذكاء الاصطناعي لم يعد مجرد «أداة تقنية»… بل أصبح ساحة تنافس عالمي، وخطًا فاصلًا بين الأمن والتهديد، حسب طريقة استخدامه.

تطبيقات الاستخدام المزدوج في الحروب الحديثة

يمتد استخدام الذكاء الاصطناعي في المجال العسكري من التخطيط على مستوى القيادات العليا إلى التنفيذ المباشر في الميدان. ومن أبرز الاستخدامات الحالية:

  • الاستخبارات والمراقبة والاستطلاع: تساعد أنظمة الذكاء الاصطناعي في تحليل كميات هائلة من بيانات المستشعرات وصور الأقمار الصناعية واعتراضات الإشارات، لاستخراج أنماط يصعب على الإنسان اكتشافها بسرعة. وفي عام ٢٠٢٤ أشار تقرير لوزارة الدفاع الأمريكية إلى أن التقدم في نماذج اللغة الكبيرة لدى الصين، خاصة في القطاعين التجاري والأكاديمي، قلّص الفجوة في الأداء مقارنة بالنماذج الأمريكية، ما يجعل التحليل الاستخباراتي أكثر تطورًا.

  • أنظمة الأسلحة ذاتية التشغيل: يمكن لبعض الأنظمة ذاتية التشغيل رصد الأهداف وتتبعها والاشتباك معها مع قدر محدود من إشراف البشر. وفي حرب روسيا وأوكرانيا أصبحت الطائرات المسيّرة سببًا رئيسيًا للخسائر في ساحة المعركة. كما توقع مسؤولون أوكرانيون أن الطائرات المسيّرة من نوع منظور الشخص الأول التي تعمل بالذكاء الاصطناعي قد تحقق معدلات إصابة أعلى من الطائرات التي يقودها البشر يدويًا.

  • الصيانة التنبؤية واللوجستيات: تستخدم القوات الجوية الأمريكية الذكاء الاصطناعي ضمن برنامج الصيانة المعتمدة على الحالة لطائرات مقاتلة متقدمة، عبر تحليل بيانات المستشعرات للتنبؤ بالأعطال قبل وقوعها، ما يقلل فترات التوقف ويخفض التكاليف.

  • القيادة والسيطرة: يساعد الذكاء الاصطناعي القادة العسكريين على فرز معلومات الميدان بسرعة وتقييم الخيارات الممكنة بزمن أسرع من قدرة الإنسان. وتوجد مبادرات تدمج الذكاء الاصطناعي مع الشبكات المتقدمة والمستشعرات والأتمتة عبر مجالات القتال المختلفة (البر والجو والبحر والفضاء والفضاء الإلكتروني) لدعم قرارات متزامنة وفي الوقت الحقيقي.

  • العمليات السيبرانية: يدعم الذكاء الاصطناعي القدرات الهجومية والدفاعية في الفضاء الإلكتروني، مثل اكتشاف الثغرات تلقائيًا، ورصد البرمجيات الخبيثة، وتطوير أساليب تضليل وهندسة اجتماعية أكثر تعقيدًا.

الذكاء الاصطناعي في غزة وأوكرانيا: حرب الخوارزميات

قدّمت الصراعات الأخيرة أمثلة عملية على توظيف الذكاء الاصطناعي في المجال العسكري، وما يرافق ذلك من تكلفة إنسانية. في غزة على سبيل المثال، نُسب إلى منظومة «لافندر» أنها حدّدت ما يصل إلى ٣٧٠٠٠ هدف محتمل مرتبط بعناصر من «حماس»، مع حديث عن نسبة خطأ تقارب ١٠٪. كما نُقل عن أحد العاملين في الاستخبارات الإسرائيلية قوله إن القصف كان يستهدف الأفراد في منازلهم «من دون تردد»، لأن ذلك يُعد أسهل من منظور جمع المعلومات. وقد سرّعت المنظومة وتيرة الضربات، لكنها في الوقت نفسه أثارت أسئلة صعبة حول المساءلة عندما تقود الخوارزميات إلى إصابة مدنيين.

وتشير الروايات المتداولة إلى أن تصميم هذا النوع من الأدوات يقوم على مفاضلات واضحة بين السرعة والدقة: أي تفضيل توسيع نطاق الاستهداف على تقليل الأخطاء. ومع أن النماذج الحاسوبية قد تعالج بيانات ضخمة بسرعة، فإنها لا تمتلك حكمًا بشريًا على «صفة المقاتل»، ما يجعل «الإيجابيات الكاذبة» خطرًا مباشرًا حين تتحول نتائج التحليل إلى قرارات قتل.

في أوكرانيا، اتخذ الاستخدام مسارًا مختلفًا نسبيًا، إذ يجري توظيف الذكاء الاصطناعي لتعزيز قدرات الطائرات المسيّرة في بيئة يتصاعد فيها التشويش الإلكتروني، ولتحسين التنسيق والفعالية في العمليات الخاصة. وصرّحت نائبة وزير الدفاع الأوكراني كاتيرينا تشيرنوهورينكو بوجود «عشرات الحلول» من شركات أوكرانية تُشترى وتُسلّم بالفعل إلى القوات المسلحة وغيرها من تشكيلات الدفاع. وفي المقابل، تبرز دينامية «سباق عملياتي» حيث تسعى الأطراف إلى زيادة الاستقلالية والذكاء في الأنظمة غير المأهولة، بما يرفع وتيرة الابتكار ويضاعف آثار القرارات التقنية على أرض المعركة.

حين تُخطئ الخوارزميات: القيود القانونية والتقنية على الاستهداف

إن إدماج الذكاء الاصطناعي في أنظمة عسكرية قاتلة يثير مخاوف إنسانية تتجاوز مسألة «هل التقنية دقيقة أم لا». فالمشكلة الأعمق أن الذكاء الاصطناعي يواجه صعوبة بنيوية في احترام مبدأ التمييز الذي يفرض حماية المدنيين عبر التفريق بينهم وبين المقاتلين وفقًا لقواعد القانون الدولي الإنساني.

هناك فجوات أساسية تجعل الاعتماد عليه في الاستهداف مسألة شديدة الإشكال:

  • فهم السياق: الذكاء الاصطناعي لا يفهم التعقيدات الاجتماعية والثقافية والظرفية التي تحدد صفة الشخص. فحمل السلاح قد يعني مقاتلًا، أو مدنيًا يدافع عن منزله، أو راعيًا يحمي مواشيه.

  • تقدير التناسب: القانون الدولي الإنساني يشترط ألا تُحدث الضربة ضررًا مدنيًا «مفرطًا» مقارنة بالميزة العسكرية المتوقعة. وقد أشارت منظمة هيومن رايتس ووتش إلى التشكيك في قدرة الأنظمة الروبوتية على إجراء هذا النوع من التقييمات الدقيقة والمتغيرة.

  • الحكم الأخلاقي: الآلات لا تمتلك رحمة أو شفقة أو إدراكًا لكرامة الإنسان، وهي عناصر لعبت تاريخيًا دور «فرامل» أمام الانزلاق إلى انتهاكات واسعة أثناء الحروب.

  • المساءلة: مع الأسلحة ذاتية التشغيل تتوزع المسؤولية بين المبرمجين والمصنّعين والمشغلين والقيادات، ما يجعل تحديد المسؤول الفردي أصعب. كما حذرت تحليلات من أن الإنسان يميل إلى تصديق ما تقوله الأنظمة الحاسوبية، خصوصًا حين تكون سرعة القرار أعلى من قدرة البشر على المتابعة والتحقق.

ولا تتوقف المخاطر عند هذا الحد، إذ تمتد إلى انحيازات بيانات التدريب. فإذا كانت بيانات التاريخ العسكري تميل لإبراز الرجال كمقاتلين، قد تُنتج الأنظمة تحيزًا ضمنيًا يجعل «الذكر = مشتبه به». وقد طُرحت هذه الإشكالية صراحة في نقاشات حول أنظمة الاستهداف المعتمدة على البيانات، بما يخلق خطرًا أكبر على فئات بعينها، خصوصًا المجتمعات التي عانت تاريخيًا من أنماط استخدام قوة تمييزية.

ضوابط التصدير ونقل التكنولوجيا: تحديات السيطرة والالتفاف

مع إدراك الحكومات للأهمية الاستراتيجية للذكاء الاصطناعي، جرى توسيع أنظمة ضوابط التصدير بشكل ملحوظ. في الولايات المتحدة، فرض مكتب الصناعة والأمن متطلبات ترخيص عالمية على «أوزان النماذج» الخاصة بأكثر نماذج الذكاء الاصطناعي تقدّمًا، إلى جانب توسيع القيود على الشرائح الحاسوبية المتقدمة، بهدف حماية الأمن القومي ومنع إساءة الاستخدام أو التحويل غير المشروع للتكنولوجيا.

لكن هذه الضوابط تواجه مفارقة صعبة. فإذا كانت القيود واسعة جدًا، قد تُبطّئ البحث العلمي والابتكار التجاري المشروع وتُرهق الجامعات والشركات بتكاليف امتثال عالية. وإذا كانت رخوة، فإنها تفتح الباب أمام حصول الخصوم على قدرات متقدمة عبر السوق الرمادية أو الوسطاء.

كما أن فعالية الضوابط تبقى غير مضمونة بسبب صعوبة التنفيذ عبر سلاسل توريد عالمية معقدة. تقارير حديثة تشير إلى أن تهريب الشرائح والالتفاف على القيود يحدث عبر شركات واجهة ووسطاء وممارسات إخفاء المصدر، ما يجعل إنفاذ الضوابط تحديًا مستمرًا.

وفي هذا السياق، ظهرت اتهامات إعلامية تتعلق بحصول جهات صينية، ومنها شركة «ديب سيك»، على شرائح محظورة عبر قنوات غير مباشرة لتدريب نماذج متقدمة، وهو ما يعكس كيف يمكن للقيود أن تُنتج سباقًا بين تشديد الأنظمة وتطوير أساليب الالتفاف عليها.

الحوكمة الدولية: تشتّت المعايير وتنافس الأطر

يعاني المجتمع الدولي في بناء إطار حوكمة موحّد للذكاء الاصطناعي ذي الاستخدامين. فبدلًا من نهج عالمي متماسك، تشكّلت فسيفساء من سياسات وطنية، واتفاقات متعددة الأطراف، وقمم رفيعة المستوى، وإعلانات وأطر عمل، والتزامات طوعية.

تناولت عدة منصات دولية موضوع حوكمة الذكاء الاصطناعي، منها:

  • دعا الأمين العام للأمم المتحدة إلى إبرام معاهدة ملزمة قانونيًا بحلول ٢٠٢٦ لحظر أنظمة الأسلحة الذاتية الفتاكة التي تعمل دون سيطرة أو إشراف بشري فعّال، مع تنظيم الأنواع الأخرى من الأسلحة الذاتية.

  • تواصل «فريق الخبراء الحكوميين» المعني بالأسلحة الذاتية الفتاكة مناقشاته ضمن اتفاقية الأسلحة التقليدية منذ ٢٠١٣، لكن التقدم العملي ظل محدودًا وبطيئًا مقارنة بحجم الجدل والرهانات.

  • أصدر حلف شمال الأطلسي استراتيجية مُنقّحة للذكاء الاصطناعي في ٢٠٢٤، بهدف تسريع تبنّي الذكاء الاصطناعي داخل الحلف مع التشديد على الاستخدام الآمن والمسؤول.

  • «قانون الذكاء الاصطناعي» في الاتحاد الأوروبي يستثني تطبيقات الذكاء الاصطناعي ذات الطابع العسكري/الدفاعي/الأمن القومي من نطاقه، ما يترك ملف الاستخدام العسكري خارج الإطار التشريعي المدني الأوروبي.

يعكس هذا المشهد المُجزّأ انقسامات جيوسياسية أعمق. فاعتبار الذكاء الاصطناعي محورًا للتنافس الاستراتيجي يدفع الولايات المتحدة إلى بناء منظومة حوكمة ومعايير مع شركائها المتقاربين سياسيًا وأمنيًا، في مقابل سعي الصين إلى ترسيخ رؤيتها ومعاييرها عبر شبكات الشراكات والتقنيات والبنى التحتية العابرة للحدود.

الآثار على الاستقرار الاستراتيجي

يطرح الذكاء الاصطناعي تحديات مباشرة على الاستقرار الاستراتيجي. فالأسلحة الذاتية تتيح استبدال الآلات بالجنود في كثير من أدوار ساحة المعركة، ما يقلّل التكلفة البشرية وبالتالي التكلفة السياسية لشنّ حرب هجومية. وقد يؤدي ذلك إلى زيادة تكرار الصراعات بين خصوم متكافئين، إذ قد يعتقد كل طرف أنه قادر على الانتصار دون خسائر داخلية كبيرة. أمّا في الصراعات بين أطراف غير متكافئة، فإن انخفاض الخسائر يقلّص أكثر معارضة الرأي العام لحروب العدوان.

ولا تقتصر التداعيات على الحرب التقليدية. فالأسراب المسلحة من الطائرات المسيّرة ذاتية التشغيل بالكامل قد تجمع بين القدرة على إحداث أذى واسع النطاق وغياب السيطرة البشرية، ما قد يجعلها أقرب إلى أسلحة دمار شامل بمستوى منخفض يشبه من حيث الأثر بعض السيناريوهات النووية المحدودة. كما أن العوائق التقنية أمام بناء مثل هذه الأنظمة تتراجع مع توافر المكوّنات تجاريًا.

ويعقّد الذكاء الاصطناعي أيضًا الاستقرار النووي. فالتقدّم في المستشعرات المعززة بالذكاء الاصطناعي ومعالجة البيانات قد يقوّض قدرات «الضربة الثانية» عبر تحسين كشف منصات الإطلاق المتحركة والغواصات. هذا التآكل في قدرة الردع المؤكّد قد يغري بضربات استباقية أثناء الأزمات. وفي الوقت نفسه، فإن إدخال الذكاء الاصطناعي في إدارة أنظمة القيادة والسيطرة النووية يرفع مخاطر الحوادث وسوء التقدير أو حتى الإطلاق غير المصرّح به.

اختبار الأخلاق في زمن الخوارزميات

إن إدماج الذكاء الاصطناعي في الحروب يفرض ضغطًا متزايدًا على الأطر الأخلاقية. فـ«نظرية الحرب العادلة» تشترط أن يظل الفاعلون مسؤولين أخلاقيًا عن أفعالهم، وأن يمتلكوا القدرة على التمييز بين المقاتلين والمدنيين، وأن يراعوا مبدأ التناسب في استخدام القوة. لكن الثقة المفرطة في توصيات الأنظمة الآلية التي تعمل تلقائيًا بواسطة البرامج والخوارزميات والوساطة التكنولوجية قد تضعفان الوكالة الأخلاقية لدى مشغّلي أنظمة الاستهداف المعززة بالذكاء الاصطناعي، وتحدّان من قدرتهم على إصدار حكم أخلاقي مستقل.

وعندما يتعامل المشغّل مع الاستهداف عبر شاشات تعرض توصيات خوارزمية بدل الملاحظة المباشرة، تتسع المسافة النفسية. وقد يحوّل ذلك القتل إلى إجراء بيروقراطي، بحيث يصبح المشغّل أقرب إلى فنّي يوافق أو يرفض اقتراحات الخوارزمية، لا فاعلًا أخلاقيًا يقرّر على أساس حكم إنساني مباشر.

وفوق ذلك، تؤثر ديناميات الصناعة — ولا سيما تمويل رأس المال المغامر — في الخطاب المحيط بالذكاء الاصطناعي العسكري، بما يشكّل تصورات ما يعنيه «الاستخدام المسؤول» في الحرب. وعندما تتقاطع الحوافز التجارية مع التطبيقات العسكرية، تبهت الحدود بين الابتكار المسؤول والتكاثر المتهور. كما تتعرض الشركات التي تطوّر الذكاء الاصطناعي للأسواق المدنية لضغوط للتوسع نحو التعاقدات الدفاعية، غالبًا دون مداولات أخلاقية كافية.

المراجع
972 Magazine (2024) 'Lavender': The AI machine directing Israel's bombing spree in Gaza. https://www.972mag.com/lavender-ai-israeli-army-gaza/ Center for Strategic and International Studies (2024) Where the Chips Fall: U.S. Export Controls Under the Biden Administration from 2022 to 2024. https://www.csis.org/analysis/where-chips-fall-us-export-controls-under-biden-administration-2022-2024 Center for Strategic and International Studies (2025) Ukraine's Future Vision and Current Capabilities for Waging AI-Enabled Autonomous Warfare. https://www.csis.org/analysis/ukraines-future-vision-and-current-capabilities-waging-ai-enabled-autonomous-warfare Defense One (2023) The Pentagon's 2024 Budget Proposal, In Short. https://www.defenseone.com/policy/2023/03/heres-everything-we-know-about-pentagons-2024-budget-proposal/383892/ Department of Defense (2024) Military and Security Developments Involving the People's Republic of China 2024. https://media.defense.gov/2024/Dec/18/2003615520/-1/-1/0/MILITARY-AND-SECURITY-DEVELOPMENTS-INVOLVING-THE-PEOPLES-REPUBLIC-OF-CHINA-2024.PDF Foreign Policy Research Institute (2024) Breaking the Circuit: US-China Semiconductor Controls. https://www.fpri.org/article/2024/09/breaking-the-circuit-us-china-semiconductor-controls/ Human Rights Watch (2024) A Hazard to Human Rights: Autonomous Weapons Systems and Digital Decision-Making. https://www.hrw.org/report/2025/04/28/a-hazard-to-human-rights/autonomous-weapons-systems-and-digital-decision-making National Defense Magazine (2024) Pentagon Sorting Out AI's Future in Warfare. https://www.nationaldefensemagazine.org/articles/2024/10/22/pentagon-sorting-out-ais-future-in-warfare Queen Mary University of London (2024) Gaza war: Israel using AI to identify human targets raising fears that innocents are being caught in the net. https://www.qmul.ac.uk/media/news/2024/hss/gaza-war-israel-using-ai-to-identify-human-targets-raising-fears-that-innocents-are-being-caught-in-the-net.html Reuters (2024) Ukraine rolls out dozens of AI systems to help its drones hit targets. https://euromaidanpress.com/2024/10/31/reuters-ukraine-rolls-out-dozens-of-ai-systems-to-help-its-drones-hit-targets/
First published in: World & New World Journal
Mayukh Dey

Mayukh Dey

"مايوخ داي خريجة علوم سياسية (مع مرتبة الشرف) ولديها اهتمام أكاديمي عميق بالعلاقات الدولية والسياسة العالمية وقضايا الأمن المعاصر. وقد وفّر لها تدريبها الأكاديمي أساسًا متينًا في النظرية السياسية وأطر العلاقات الدولية والتحليل الجيوسياسي، مما مكّنها من التفاعل مع الديناميكيات العالمية المعقدة في سياقاتها التاريخية والاستراتيجية والثقافية. إلى جانب دراستها الأكاديمية، تابعت مايوخ داي دراسة متعددة التخصصات في مجالات مثل حوكمة الذكاء الاصطناعي وأمنه والمخاطر المتعلقة بالتكنولوجيا، مع التركيز على فهم كيفية تقاطع التقنيات الناشئة مع السياسة الدولية والحوكمة العالمية. وبصفتها باحثة مستقلة، تعمل بنشاط على تطوير مهاراتها التحليلية وتشارك في النقاشات المعاصرة في الجغرافيا السياسية والأمن والشؤون العالمية."

Leave a Reply