لم يعد فيلم "المدمر" مجرد عمل خيالي عن المستقبل، بل أصبحت ملامحه أقرب إلى الواقع مع التطور المتسارع للذكاء الاصطناعي والروبوتات العسكرية، وسط تساؤلات متزايدة حول إمكانية الاعتماد على «جنود آليين» لخوض الحروب بدلاً من البشر.
تحذيرات من مرحلة جديدة
وفي حديث لصحيفة «ذا صن»، كشف البروفيسور كينيث باين، أستاذ الاستراتيجية في كلية كينجز لندن، أن العالم بدأ بالفعل دخول مرحلة تشبه أجواء فيلم «المدمر»، موضحًا أن استخدام الروبوتات العسكرية والأنظمة الذكية لم يعد مجرد تصور سينمائي، بل أصبح جزءًا من خطط التطوير العسكري لدى القوى الكبرى.
وأوضح باين، مؤلف كتاب «أنا.. روبوت الحرب»، أنه أمضى أكثر من 15 عامًا في دراسة تأثير «العقول الاصطناعية» على مستقبل الحروب، مؤكدًا أن الجيوش الحديثة تتجه تدريجيًا نحو الاعتماد على أنظمة قادرة على التفكير واتخاذ القرار بشكل مستقل داخل ساحات المعارك.
تقنيات تشبه برامج المحادثة
وأشار إلى أن الأمر لم يعد يقتصر على طائرات مسيّرة أو أنظمة دفاع ذكية، بل وصل إلى تطوير روبوتات شبيهة بالبشر يمكنها الحركة والتفاعل وإطلاق النار، لافتًا إلى ظهور نماذج أولية من هذه الروبوتات بالفعل في الحرب الروسية الأوكرانية.
وأضاف أن التطور الأخطر يتمثل في دمج تقنيات شبيهة ببرامج المحادثة الذكية، مثل ChatGPT، داخل الأنظمة العسكرية، بما يسمح للروبوتات بتحليل المواقف المعقدة واتخاذ قرارات قتالية في الوقت الحقيقي، وهو ما وصفه بأنه «تحويل روبوتات الدردشة إلى آلات قتالية تتفاعل مع العالم الحقيقي».
وأكد أن الذكاء الاصطناعي لم يعد مجرد أداة مساعدة، بل بدأ يشارك في التخطيط العسكري واتخاذ القرارات، مشيرًا إلى تقارير تحدثت عن استخدام أنظمة ذكاء اصطناعي للمساعدة في التخطيط لعمليات عسكرية أمريكية خلال الفترة الماضية.
الحروب أشبه بالبوكر
ورغم أن أجهزة الكمبيوتر استطاعت منذ سنوات التفوق على البشر في ألعاب مثل الشطرنج، يرى باين أن الحروب أكثر تعقيدًا، لأنها تعتمد على الخداع والتوقعات والقرارات غير المكتملة، وهو ما يجعلها أقرب إلى لعبة «البوكر» وليس الشطرنج.
وقال إن البشر ما زالوا يتفوقون في فهم نوايا الآخرين والقيادة والتفكير النفسي والاستراتيجي، لكن الفجوة بين الإنسان والآلة تتقلص بشكل سريع مع التطور المستمر للذكاء الاصطناعي.
أسباب الاعتماد على الروبوتات
وأوضح أن هناك سببين رئيسيين يدفعان الجيوش نحو الاعتماد على الروبوتات، أولهما «السرعة»، إذ أصبحت الحروب السيبرانية والهجمات الإلكترونية تحدث خلال أجزاء من الثانية، وهو وقت لا يسمح بتدخل بشري سريع، ما يدفع نحو أنظمة دفاع وهجوم مستقلة تعمل تلقائيًا. أما السبب الثاني فهو «العدد»، حيث يمكن للذكاء الاصطناعي إدارة أسراب ضخمة من الطائرات والروبوتات في وقت واحد، وهو أمر يتجاوز قدرة البشر على التحكم والمتابعة.
مخاطر أخلاقية وقانونية
ورغم المزايا العسكرية المحتملة، حذر باين من مخاطر أخلاقية وقانونية كبيرة، أبرزها مسألة «المساءلة»، متسائلًا: «إذا ارتكب روبوت جريمة أو استهدف مدنيًا بالخطأ، فمن يتحمل المسؤولية؟».
وأشار إلى أن الروبوتات قد تتخذ قرارات خاطئة نتيجة خلل في التحليل أو أجهزة الاستشعار، مثل الخلط بين طفل يحمل لعبة وسلاح حقيقي، ما قد يؤدي إلى كوارث إنسانية.
وأضاف أن أحد أخطر السيناريوهات يتمثل في استغلال الخصوم لهذه الأنظمة، عبر الاحتماء داخل المدارس أو المناطق المدنية لإرباك الأنظمة الذكية وتعقيد قراراتها العسكرية.



