العميد صلاح الدين الزيداني الأنصاريمقالات رأي

آفاق المعارك المستقبلية: كيف تُغيير تقنيات الذكاء الاصطناعي وجه الحرب

العميد صلاح الدين أبوبكر الزيداني

مع التسارع الكبير في التكنولوجيا، يشهد العالم تحولاً جذرياً في مجالات الحروب. لم تعد المعارك تديرها العقول البشرية فقط، بل دخلت في صراعٍ قاسٍ بين أنظمة الذكاء الاصطناعي (AI). نحن في سباق متواصل حيث تظهر ابتكارات جديدة وتحديثات مستمرة تستهدف تلبية الاحتياجات المتزايدة، مما يثير تساؤلات حول ارتباط هذا التطور بالمجال العسكري وكيف ستتغير معالم الحروب القادمة. يؤكد التقدم التقني أننا على أعتاب حروب تتسم بسمات جديدة وأدوات حديثة. لن تعود الحروب مثلما كانت، بل ستدخل مرحلة جديدة نتيجة ظهور أنظمة الذكاء الاصطناعي، مستبدلة الصراعات التقليدية بمواجهات رقمية متقدمة تتطلب استراتيجيات مدروسة وتوازن دقيق بين القوة العسكرية والأخلاقيات.

ستكون الحروب مزيجاً من التكنولوجيا والقوة، حيث ستظهر معدات عسكرية متطورة مثل الروبوتات القتالية والمركبات غير المأهولة. كل هذه العناصر ستعمل بسلاسة وبشكل مستقل، مؤديةً إلى تحسين دقة الضربات وتحديد التهديدات قبل وقوعها. ستتغير البيئة القتالية بشكل كامل، حيث ستؤدي الابتكارات الذكية إلى تعزيز الفعالية العملياتية ورفع مستوى الاستعداد لمواجهة التحديات.

كما ستساهم أنظمة الذكاء الاصطناعي في تطوير خطط العمليات وأوامر القتال، مما يعزز من سرعة ودقة اتخاذ القرارات. العديد من الدول بدأت بالفعل في تشكيل وحدات جديدة لتعزيز قدراتها العسكرية عبر تكنولوجيا الذكاء الاصطناعي، وهي الآن قادرة على تحليل كميات ضخمة من البيانات وبسرعة تفوق الأخطاء البشرية.

يشهد العالم فعلاً ثورة تقنية ستؤدي إلى إحالة الكثير من الأسلحة التقليدية إلى التقاعد، وقد يصبح دور المقاتل قريباً محصورًا في تشغيل المعدات عن بُعد. وهناك قلق حول إمكانية الاستغناء عن العنصر البشري تماماً في المستقبل، مما يعكس مدى التغير في مفهوم الصراع.

لتمييز الأمر، يجب أن نعرف الفارق بين المصطلحات “الذكاء الصناعي” و”الذكاء الاصطناعي”. الأول يتناول تطوير أنظمة ذكية تحاكي الإنسان بشكل عام، أما الثاني فهو تطبيق عملي لهذه الأنظمة في مجالات محددة مثل الشؤون العسكرية التي تتوسع بشكل سريع.

تطبيقات الذكاء الاصطناعي في المجال العسكري تقدم أبعاد جديدة للعمليات العسكرية، بما في ذلك اتخاذ القرارات المستقلة، والتي تتطلب بدورها طاقات حوسبية استثنائية. هذه الأنظمة يتم تدريبها على معالجة كميات هائلة من البيانات وتقديم استجابات سريعة، مما يعكس تقدمًا ملحوظًا في هذا المجال.

في عالم يتسارع فيه التطور التكنولوجي، أصبح التفوق في تكنولوجيا الذكاء الاصطناعي ضرورة لا غنى عنها، خاصة في إطار المنافسة الاستراتيجية بين القوى الكبرى. في عام 2019، أصدرت الصين الكتاب الأبيض الخاص بالدفاع والذي يحمل عنوان “الدفاع الوطني الصيني لعصر جديد”، حيث عرضت فيه طموحاتها العسكرية ورغبتها في ترسيخ وجودها كقوة مؤثرة على الساحة العالمية. أبرزت الوثيقة أن النزاعات الحديثة تتجه بشكل متزايد نحو الربط بين الأنظمة الإعلامية والذكاء الاصطناعي، مما يستدعي تقدماً ملحوظاً في أتمتة العمليات وتطوير نظم المعلومات.

وفي خضم سباق التسلح التكنولوجي المحتدم بين الولايات المتحدة والصين، تواصل الأخيرة خطواتها السريعة نحو تحقيق التفوق في التقنيات المتقدمة بالاعتماد على الذكاء الاصطناعي. تملك الصين إيمانًا راسخًا بأن مستقبل الحروب سيعتمد بشكل كبير على تلك التقنيات، كما جاء في الوثيقة الدفاعية الصينية.

لرفع كفاءتها العسكرية، استثمرت الصين بشكل كبير في تطوير الذكاء الاصطناعي من خلال الابتكارات الداخلية وتكييف التقنيات الغربية. وقد تم مؤخراً الكشف عن نموذج ذكاء اصطناعي جديد يُعرف بنظام “شات بيت” (ChatBIT)، الذي تم تطويره استناداً إلى نموذج “لاما 2” مفتوح المصدر، والذي أنشأته شركة ميتا (Meta) سابقاً. يمثل هذا التطور خطوة مهمة نحو تكامل الذكاء الاصطناعي في الجوانب العسكرية.

يبرز نظام “شات بيت” تحولاً نوعياً في الديناميكيات العسكرية، حيث تستطيع الدول ذات الموارد المحدودة استخدام النماذج مفتوحة المصدر لتحقيق تفوق عملي. من خلال تكييف نموذج “لاما 2” مع الاحتياجات العسكرية، أظهرت الأبحاث الصينية الإمكانيات الكبيرة المتاحة لهذه المصادر، مما أثار نقاشات عميقة عن الأبعاد الأخلاقية والسياسية لتوظيف الذكاء الاصطناعي في المجال العسكري.

استفاد باحثو الجيش الصيني من نموذج “شات بيت” لتحقيق أداء متميز في معالجة البيئات العملياتية. تم تصميمه للتعامل مع كميات هائلة من البيانات بدقة متناهية، مع توفير توصيات تكتيكية واستراتيجية. وقد أتيح للصين التفوق على نماذج أخرى في المهام الاستخباراتية بفضل تكييفها الفعال للتقنيات المفتوحة المصدر.

حقق نظام “شات بيت” دقة تقدر بـ90% في الإجابات مقارنة بنموذج “جي بي تي-4 أو” (GPT-4O)، رغم الفجوة الكبيرة في سعة معالجة البيانات بين النموذجين. يتمتع نموذج “لاما 2” بسعة 13 مليار توكين، بينما يعمل نموذج “جي بي تي-4 أو” بطاقة 405 مليار توكين.

ردود الفعل على هذا الكشف في واشنطن جاءت بعيدة عن الارتياح، حيث تشعر الولايات المتحدة بالضغط المتزايد من الصين في مجال الذكاء الاصطناعي، خاصة مع انطلاق صراع جديد بين النماذج الصينية والأمريكية، مما ينذر بمنافسة ساخنة في الحروب المستقبلية.

يتم تطوير تكنولوجيا الذكاء الاصطناعي للتغلب على تحديات الحرب من خلال مراقبة نوايا العدو، وتوقع تحركاته مسبقًا، مما يتيح إدارة ذكية للمعارك تعزز الوعي الظرفي وتقلل الزمن اللازم للرد ورصد الأهداف قبل تحييدها.

تاريخ طويل يحمل الجيش الأمريكي في تجاربه مع الذكاء الاصطناعي؛ ففي عام 1991، تم استخدام أداة التحليل الديناميكي وإعادة التخطيط (DART) في جدولة نقل الإمدادات وحل المشكلات اللوجستية. اليوم، يقدم الجيش أساليب جديدة تستفيد من الذكاء الاصطناعي لزيادة الكفاءة في الحروب، من خلال نماذج مثل ChatGPT التي تعتبر أداة متعددة الاستخدامات لتوليد النصوص، مما يتيح التحسينات في التخطيط العسكري وجمع المعلومات وإدارة المعارك الذكية.

أصبح ChatGPT مصدر فرح هام لتطوير أنظمة تهدف إلى التطبيقات العسكرية، خاصة مع وجود كميات ضخمة من البيانات التي تعالجها نظم دعم القرار، مما يساعد القادة العسكريين في التعامل مع التغيرات السريعة أثناء العمليات العسكرية.

يساعد ChatGPT في إعداد وثائق التخطيط العسكري والتقارير التكتيكية والدراسات التحليلية بدقة وفعالية. كما يعزز من قدرات القادة العسكريين على اتخاذ القرارات بناءً على تحليلات لحظية للبيانات الميدانية، مما يحسن تخصيص الموارد ودعم اللوجستيات خلال العمليات.

يعمل ChatGPT أيضًا على تعزيز العمليات الذكية عن طريق تولي دور ضابط أركان “عمليات” افتراضي، مما يسهم في زيادة كفاءة اتخاذ القرار وتقليل الزمان المطلوب للرد، بالإضافة إلى تقييم التهديدات وتقديم الدعم التعبوي والاستخباري.

في مجال الدعم اللوجستي، يسهم ChatGPT في إدارة المخزون العسكري وتحليل مستندات الإمدادات، مما يوفر بيانات حول توفر الموارد ويعزز القدرة على تنظيم الدعم اللوجستي خلال المعارك بدقة وفي الوقت المناسب.

يمثل ChatGPT أداة ذكاء اصطناعي استراتيجية في التخطيط والتحليل العسكري، مما يساعد في خلق قيادة أكثر فعالية للعمليات. ومع ذلك، يطرح التساؤل حول العواقب عندما تُسند قرارات حياتية إلى آلة لا تعرف الألم ولا تميز بين دمعة طفل وصرخة جندي.

إدخال نماذج الذكاء الاصطناعي في إدارة الحروب والتخطيط لها قد يثير مخاطر أمنية وأخلاقية، إذ يمكن أن يؤدي تسرب المعلومات العسكرية بسبب معالجة البيانات عبر وسائط غير آمنة. ويجلب أيضًا خطر الهجمات السيبرانية المنسقة التي تستهدف الأهداف العسكرية، كما قد يسبب الاعتماد المفرط على النماذج الأخطاء في تقدير الموقف، مما ينتهي بصنع قرارات خاطئة.

أما على صعيد المخاطر الأخلاقية، فإن تدريب ChatGPT على بيانات غير متوازنة قد يؤدي إلى نتائج غير موضوعية تؤثر على اتخاذ قرارات عسكرية حاسمة، مما يرفع التساؤلات حول من يتحمل المسؤولية عن القرارات التي تتخذ بناءً على توصيات الذكاء الاصطناعي.

تعتبر المخاطر المرتبطة بتكنولوجيا الذكاء الاصطناعي ضرورة ملحة لتطبيق سياسات صارمة تهدف إلى تعزيز صحة المخرجات. يجب تأمين الأنظمة ضد الاختراقات، مع ضمان مراقبة بشرية مستمرة لكافة عمليات التخطيط العسكري التي تعتمد على تقنيات مثل ChatGPT أو غيرها من أنظمة الذكاء الاصطناعي. لذلك، تُلزم وزارة الدفاع الأمريكية قادة ومشغلي أنظمة الأسلحة الذاتية والشبه ذاتية التشغيل بالتحكم الفعّال في استخدام القوة.

في مطلع عام 2023، أعلنت وزارة الدفاع الأمريكية عن تحديثات على التوجيه 3000.09 الذي يتناول “الاستقلالية في أنظمة الأسلحة”. حيث تتعلق التوجيهات الجديدة بأنظمة الأسلحة الذاتية والشبه ذاتية التشغيل، بما في ذلك تلك التي تعتمد على الذكاء الاصطناعي. ويشير التوجيه إلى أن: “يتوجب منح القادة والمشغلين مستويات مناسبة من السيطرة البشرية عند تصميم أنظمة الأسلحة”. بينما يمكن الاستفادة من الذكاء الاصطناعي لدعم القادة في اتخاذ قرارات أكثر دقة، تبقى السيطرة البشرية هي العامل الحاسم في اتخاذ القرارات التنفيذية.

مؤخراً، أكدت شركة OpenAI رفع الحظر المفروض على الاستخدام العسكري لأدوات الذكاء الاصطناعي الخاصة بها، حيث تراجعت بهدوء عن سياستها السابقة. ومع ذلك، لا تزال السياسات تؤكد على ضرورة عدم استخدام خدماتها للإيذاء أو لتطوير الأسلحة.

صرح أحد المتحدثين باسم OpenAI لشبكة CNBC بأن الهدف من تعديل السياسة هو تعزيز الوضوح والسماح للحالات العسكرية التي تتوافق مع رؤية الشركة.

وأضاف: “ليس مسموحاً لدينا استخدام أدواتنا لإصابة الأفراد، أو تطوير الأسلحة، أو مراقبة الاتصالات. بينما هناك حالات استخدام تتعلق بالأمن القومي، تتماشى مع مهمتنا”.

تنبئ الحرب المستقبلية بالصراع المحتدم والدموية المتزايدة، حيث سيغيب الجانب الإنساني والأخلاقي، ليصبح الذكاء الاصطناعي هو المخطط والمنفذ. الأسلحة الذاتية قد تهاجم أهدافاً بدون أي تدخل بشري، مما يزيد من جنوح الصراع. الأسلحة الحديثة لن تتوقف إلا عند نفاد الطاقة، لا عند نفاد الرحمة. ففي عصر تتحكم فيه الخوارزميات، هل سننتظر حتى تُكتب نهاية البشرية على يد الآلات؟ أم يجب علينا التحرك الآن لرسم مستقبل تتجسد فيه القيم والأخلاق فوق الحسابات الرقمية وصراع النفوذ؟

مقالات ذات صلة

زر الذهاب إلى الأعلى