الذكاء الاصطناعي يدخل الغرف السرّية

news image

 

البنتاغون يعيد تعريف حدود استخدام النماذج المتقدمة

Washington | BETH – 12 Feb 2026
متابعة وتحليل

 

المشهد

يدفع البنتاغون كبرى شركات الذكاء الاصطناعي، بما فيها OpenAI وAnthropic، لإتاحة نماذجها على الشبكات المصنّفة (السرّية)، بما يتجاوز القيود الاعتيادية التي تفرضها هذه الشركات على استخدام أدواتها. الهدف المُعلن: تمكين الجيش من الاستفادة من قدرات الذكاء الاصطناعي في تحليل وتوليف المعلومات داخل بيئات تشغيلية عالية الحساسية، تشمل التخطيط العسكري وتوجيه الأسلحة.

 

ماذا يعني هذا فعليًا؟

نحن أمام تحوّل نوعي في علاقة الذكاء الاصطناعي بمؤسسات القوة الصلبة.
الذكاء الاصطناعي لم يعد أداة دعم إداري أو تحليلي في بيئات مدنية مفتوحة، بل دخل رسميًا فضاء القرار السيادي عالي الحساسية.

هذا يعني ثلاث نقلات متزامنة:

من “مستشار ذكي” إلى “جزء من غرفة القرار”
وجود النماذج على شبكات مصنّفة يعني أنها ستُستخدم في مراحل أقرب إلى مركز القرار، لا في الأطراف. هنا يتحول الذكاء الاصطناعي من أداة تحليل عامة إلى فاعل غير مرئي في صياغة الخيارات العسكرية.

إعادة تعريف القيود الأخلاقية والتقنية
القيود التي تضعها الشركات عادة (حظر بعض الاستخدامات أو الحد من وظائف معينة) تصبح محل تفاوض مع مؤسسات الدولة. هذا يفتح سؤالًا جوهريًا:

من يضع حدود استخدام الذكاء الاصطناعي عندما يدخل بيئات الأمن القومي؟

نقل “مخاطر الذكاء الاصطناعي” من السوق إلى الدولة
في البيئات المدنية، أي انحراف أو خطأ يُدار باعتباره مخاطرة تجارية أو أخلاقية.
في البيئات العسكرية، الخطأ قد يُترجم إلى قرار سيادي خاطئ أو تصعيد غير محسوب.

 

كيف سيُقرأ عالميًا؟

عسكريًا: سباق تسلّح ذكي. الدول الأخرى ستسعى إلى دمج نماذجها الوطنية أو التعاقد مع بدائل سيادية لتفادي فجوة قرار قائمة على الذكاء الاصطناعي.

سياسيًا: تعميق الفجوة بين من يمتلك “ذكاءً سياديًا” ومن يظل معتمدًا على منصات تجارية عامة.

أخلاقيًا: عودة الأسئلة الكبرى حول “حدود التفويض للآلة” في القرارات المرتبطة بالحياة والموت.

تقنيًا: انتقال الذكاء الاصطناعي من بيئات مفتوحة إلى “صناديق سوداء سيادية” يقل فيها التدقيق العام والشفافية.

 

ماذا يعني ذلك للمستقبل؟

تغيّر شكل القيادة العسكرية: القائد الذي يقرأ مخرجات نموذج ذكي قد يتخذ قرارًا أسرع… لكن هل سيكون أعمق فهمًا للسياق؟

مأسسة الاعتماد على الخوارزمية: مع الوقت، تتحول التوصيات الذكية إلى “مرجعية ضمنية” يصعب على الإنسان تجاهلها.

بداية فصل جديد في حروب القرن 21: ليس فقط صواريخ وطائرات مُسيّرة، بل نُظم قرار مدعومة بخوارزميات تعمل داخل غرف مغلقة.

 

زاوية BETH

القضية ليست: هل سيستخدم الجيش الذكاء الاصطناعي؟
بل: من يضبط الذكاء الاصطناعي عندما يصبح جزءًا من منطق الحرب؟

 

مؤشرات BETH (سريعة)

تحوّل استراتيجي: مرتفع جدًا

تأثير عالمي محتمل: مرتفع

مخاطر أخلاقية/سيادية: مرتفعة

إشارة سباق تقني عسكري: واضحة

 

خاتمة BETH

عندما يدخل الذكاء الاصطناعي الغرف السرّية، لا يتغيّر شكل الحرب فقط…
بل يتغيّر تعريف القرار نفسه.