عالم نوبل يحذر: كارثة وجودية تهدد البشرية خلال 35 عامًا بسبب الأسلحة النووية والذكاء الاصطناعي
عالم نوبل يحذر من كارثة وجودية خلال 35 عامًا

تحذير صارخ من عالم نوبل: البشرية على حافة الهاوية خلال ثلاثة عقود

وجه ديفيد جروس، العالم الفيزيائي الحائز على جائزة نوبل، تحذيرًا مخيفًا للبشرية، مشيرًا إلى أنها قد تواجه كارثة وجودية خلال نحو 35 عامًا. جاء ذلك في حديثه لموقع «لايف ساينس»، حيث سلط الضوء على المخاطر المتصاعدة التي تهدد مستقبل كوكب الأرض.

خطر الحرب النووية يتصاعد بنسبة 2% سنويًا

أوضح جروس، الذي تقاسم جائزة نوبل في الفيزياء عام 2004، أن البشرية قد لا يتبقى لها سوى ما يزيد قليلًا على ثلاثة عقود بسبب خطر الحرب النووية. وقال: «حتى بعد انتهاء الحرب الباردة، حين كانت هناك معاهدات للحد من الأسلحة الاستراتيجية، والتي اختفت جميعها الآن، كانت هناك تقديرات تشير إلى احتمال وقوع حرب نووية بنسبة 1% كل عام».

وأضاف: «أشعر أن التقدير الأقرب حاليًا هو 2% سنويًا، أي فرصة واحدة من كل 50 عامًا، وبناءً على ذلك، فإن العمر المتوقع للبشرية في هذه الحالة يبلغ نحو 35 عامًا». يستند هذا الحساب إلى معادلات مشابهة لتلك المستخدمة في تقدير نصف عمر المواد المشعة، والتي تقيس احتمال وقوع حدث ما مع مرور الزمن.

بانر عريض لتطبيق Pickt — قوائم تسوّق تعاونية عبر تيليجرام

تدهور الأوضاع العالمية خلال العقود الماضية

أشار جروس إلى أن الأوضاع أصبحت أسوأ بكثير خلال الثلاثين عامًا الماضية، مستشهدًا بعدة عوامل:

  • تجدد التهديدات النووية في مناطق مختلفة من العالم.
  • الحرب الدائرة في أوروبا وتصاعد التوترات الإقليمية.
  • الأزمات الأخيرة بين الهند وباكستان، والتي تزيد من خطر المواجهات.
  • غياب معاهدات كبرى للحد من الأسلحة النووية خلال السنوات العشر الماضية.

وقال: «هناك الآن تسع دول تمتلك أسلحة نووية، وحتى ثلاث دول فقط كانت ستجعل الأمور أكثر تعقيدًا بشكل هائل مقارنة بوجود دولتين». كما لفت إلى أن آخر معاهدة نووية قائمة بين الولايات المتحدة وروسيا، وهي معاهدة «نيو ستارت» التي وُقعت عام 2010، انتهت في 5 فبراير 2026.

الذكاء الاصطناعي يضيف مخاطر جديدة على المستقبل

أعرب جروس عن قلقه من صعود الذكاء الاصطناعي، معتبرًا أنه يضيف مخاطر جديدة على مستقبل البشرية. وأوضح: «الاتفاقيات والقواعد بين الدول تنهار، والأسلحة تصبح أكثر جنونًا، والأتمتة وربما الذكاء الاصطناعي سيتوليان قريبًا التحكم في تلك الأنظمة».

وحذر من أن الاعتماد على الذكاء الاصطناعي في القرارات العسكرية قد يصبح مغريًا بسبب سرعته، لكنه ليس معصومًا من الخطأ، حيث قد تنتج هذه الأنظمة معلومات غير دقيقة أحيانًا، مما يزيد من احتمالية الكوارث.

أمل في التغيير عبر الوعي والعلم

رغم هذه المخاطر المظلمة، أكد جروس أن التاريخ يثبت أن وعي الشعوب وتحذيرات العلماء يمكن أن تؤدي إلى التغيير. واستشهد بالاستجابة العالمية لقضية التغير المناخي كمثال على إمكانية تحرك البشرية لمواجهة التهديدات.

بانر بعد المقال Pickt — تطبيق قوائم تسوّق تعاونية مع رسم توضيحي عائلي

وختم بقوله: «نحن مَن صنعنا هذه الأسلحة، ويمكننا إيقافها»، مشددًا على أن الحلول تكمن في التعاون الدولي واتخاذ إجراءات عاجلة لاحتواء المخاطر النووية والتقنية.