أهم مستجدات حروب الخوارزميات في 2026:
- أنظمة الاستهداف “الذكية” تضع قوانين الحرب الدولية في مأزق أخلاقي وقانوني غير مسبوق.
- تحول القادة العسكريين إلى “واجهة” للمصادقة على قرارات الخوارزميات دون فهم حقيقي لآلية اختيار الأهداف.
- غياب إطار قانوني دولي ملزم ينظم “حروب الخوارزميات” وسط انقسام عالمي حاد.
في تحدٍ جديد يشهده العالم اليوم الجمعة 24 أبريل 2026 (الموافق 7 شوال 1447 هـ)، يواجه المجتمع الدولي معضلة قانونية معقدة مع تصاعد الاعتماد على أنظمة الاستهداف المعتمدة على الذكاء الاصطناعي في النزاعات المسلحة، مما يطرح تساؤلات حتمية حول مستقبل “أخلاقيات الحرب”.
| المعسكر الدولي (2026) | الموقف المقترح والتنظيمي |
|---|---|
| دول الجنوب العالمي | تطالب بفرض قيود قانونية صارمة وحظر الأسلحة ذاتية التشغيل بالكامل. |
| الدول الكبرى (الغرب) | تفضل “المبادئ الطوعية” غير الملزمة لضمان التفوق التكنولوجي العسكري. |
أزمة المساءلة: من يحاسب “الآلة” عند الخطأ؟
يبرز سؤال قانوني معقد في أروقة المحاكم الدولية اليوم: من المسؤول عن قرار القتل عندما تتخذه خوارزمية؟ تاريخياً، استقرت قوانين الحرب -منذ “قانون ليبر” عام 1863 وصولاً إلى اتفاقيات جنيف- على مبدأ أن استخدام القوة يجب أن يصدر عن “فاعل بشري” يمكن استجوابه ومحاسبته.
إلا أن تقريراً حديثاً لموقع “ريسبونسيبل ستايت كرافت” أكد أن الذكاء الاصطناعي قوض هذا الأساس، نظراً لقدرة هذه الأنظمة على تحديد الأهداف وتنفيذ الهجمات دون تقديم تفسيرات منطقية لقراراتها، وهو ما يعرف تقنياً بمعضلة “الصندوق الأسود”.
سرعة فائقة ورقابة بشرية “شكلية”
كشفت العمليات العسكرية الأخيرة في عامي 2025 و2026 عن تحول مرعب في وتيرة اتخاذ القرار، حيث تبرز الوقائع التالية:
- عملية “الغضب الملحمي”: أعلنت القيادة المركزية الأمريكية (سنتكوم) عن استهداف أكثر من 1000 هدف خلال 24 ساعة فقط بفضل الذكاء الاصطناعي، وهو إيقاع يتجاوز قدرة العقل البشري على المراجعة الدقيقة.
- نظام “لافندر”: أشارت تقارير استقصائية إلى استخدام هذا النظام لإنشاء قوائم أهداف تلقائية، حيث اقتصر دور العنصر البشري على “الموافقة السريعة” التي لا تتجاوز ثوانٍ معدودة، مما حول البشر إلى مجرد غطاء شرعي لقرارات الآلة.
معضلة “الصندوق الأسود” والقانون الدولي
تكمن المشكلة الكبرى في أن الذكاء الاصطناعي ينتج مخرجات بناءً على احتمالات وتصنيفات معقدة لا يستطيع حتى المطورون تفسيرها أحياناً، هذا الواقع يصطدم مباشرة مع القانون الدولي الإنساني الذي يشترط:
- قدرة القائد العسكري على شرح “سبب” اعتقاده بأن الهدف مشروع.
- إمكانية تقييم “مبدأ التناسب” بين المكاسب العسكرية والأضرار الجانبية المتوقعة.
- تحديد المسؤولية الجنائية الفردية عند وقوع انتهاكات أو جرائم حرب.
تحيزات البيانات ومخاطر استهداف المدنيين
حذر خبراء القانون الدولي في 2026 من أن هذه الأنظمة لا تكتفي بنقل الأخطاء البشرية، بل تضخمها، فتدريب الخوارزميات على بيانات نزاعات سابقة يجعلها تعيد إنتاج “التحيزات”؛ حيث قد يتم تصنيف الأشخاص كأهداف بناءً على معايير عامة مثل العمر، الجنس، أو الموقع الجغرافي، مما يرفع احتمالات مقتل المدنيين دون وجود جهة يمكن مقاضاتها فعلياً.
الأسئلة الشائعة حول حروب الذكاء الاصطناعي 2026
هل يوجد قانون دولي يحظر استخدام الذكاء الاصطناعي في القتل حالياً؟
حتى تاريخ اليوم 24 أبريل 2026، لا توجد معاهدة دولية ملزمة تحظر الأسلحة ذاتية التشغيل، ولكن هناك مفاوضات مستمرة في الأمم المتحدة بجنيف لوضع إطار تنظيمي يضمن “السيطرة البشرية الفعالة”.
ما هو خطر نظام “لافندر” الذي تذكره التقارير؟
الخطر يكمن في الاعتماد الكلي على الخوارزمية لتحديد هوية “المسلحين”، حيث أثبتت التقارير أن النظام قد يخطئ في التصنيف بنسبة تصل إلى 10%، ومع ذلك يتم اعتماده دون مراجعة بشرية كافية.
من المسؤول قانونياً إذا قتلت خوارزمية مدنيين بالخطأ؟
هذه هي الفجوة القانونية الحالية؛ حيث يجادل البعض بمسؤولية المبرمجين، بينما يرى آخرون أنها مسؤولية القائد العسكري، لكن القانون الدولي الحالي يجد صعوبة في إثبات “النية الجرمية” لدى الآلة.
الخلاصة: إن خطورة الذكاء الاصطناعي في حروب 2026 تتجاوز “كفاءة القتل” إلى تدمير المنظومة الأخلاقية التي تحكم النزاعات المسلحة، مما يجعل قرارات الحرب غامضة والمساءلة عنها شبه مستحيلة في ظل غياب الرقابة البشرية الفعلية.
المصادر الرسمية للخبر:
- موقع ريسبونسيبل ستايت كرافت (Responsible Statecraft)
- اللجنة الدولية للصليب الأحمر (ICRC)
- منظمة الأمم المتحدة – قسم شؤون نزع السلاح





