ترجمة - الأفضل نيوز
في عالم تتسارع فيه تقنيات الذكاء الاصطناعي وتتآكل فيه الحدود بين الحقيقة والزيف، لم يعد خطر الحرب النووية مرتبطًا فقط بصواريخ عابرة للقارات أو حسابات الردع التقليدية، بل أصبح متصلًا أيضًا بمقاطع فيديو مزيفة، وصور مفبركة، وخوارزميات قد "تتوهم" هجومًا لم يقع، حسبما ورد في مقال بمجلة فورين أفيرز الأميركية.
ومع ذلك، لا يزال احتمال وقوع الحوادث قائمًا اليوم بالقدر نفسه الذي كان عليه خلال الحرب الباردة. وذكرت الكاتبة أنه في عام 1983، أشارت منظومة إنذار مبكر سوفياتية، على نحو خاطئ، إلى أن الولايات المتحدة قد أطلقت هجومًا نوويًّا ضد الاتحاد السوفياتي.
وكان من الممكن لمثل هذا التحذير أن يطلق ردًّا نوويًّا سوفياتيًّا كارثيًّا لولا تدخل بشري استثنائي من الضابط المناوب، ستانيسلاف بيتروف، الذي استنتج أن الإنذار كان كاذبًا. ولو لم يفعل ذلك، لكانت القيادة السوفياتية قد وجدت ما يبرر إطلاق أكثر أسلحة العالم تدميرًا على الولايات المتحدة.
هذه الحادثة ليست مجرد ذكرى تاريخية، بل هي دليل دائم على هشاشة أنظمة الإنذار النووي، وعلى الدور الحاسم للعامل البشري في منع الكارثة.
فإن هذا الخطر لم يتراجع بمرور الزمن، بل تعاظم اليوم مع إدخال الذكاء الاصطناعي إلى البنية الأمنية والعسكرية بصورة أكثر تعقيدًا وغموضًا.
وحذرت الصحيفة من أن التقاء الذكاء الاصطناعي بتقنيات "التزييف العميق" مع منظومات الإنذار النووي وآليات اتخاذ القرار قد يفتح الباب لحرب نووية قد تنشب من معلومات زائفة أو إنذارات خاطئة، لا بسبب قرار سياسي متعمد.
واعتبرت أن اندلاع حرب نووية سيكون أخطر سيناريو عرفه العالم منذ أن وضعت الحرب الباردة أوزارها في عام 1991 مع تفكك الاتحاد السوفياتي.
وأوضحت أن أحد المخاوف الشائعة يتمثل في احتمال تفويض الآلات مهمة اتخاذ قرار استخدام السلاح النووي، وهو ما تحاول الولايات المتحدة وغيرها تفاديه عبر ضمان بقاء "الإنسان داخل دائرة القرار"، كما تنص عليه الاستراتيجية الدفاعية الأميركية لعام 2022، وكما أكدته التفاهمات بين واشنطن وبكين.
غير أن المقال يشدد على أن هذا التركيز، على أهميته، لا يعالج التهديد الأكثر خفاءً والذي يكمن في قدرة الذكاء الاصطناعي على على إنتاج معلومات مزيفة شديدة الإقناع قد تؤثر في الإدراك البشري نفسه خلال لحظات الأزمة.
واستعرضت الكاتبة أمثلة حديثة على مخاطر التزييف العميق، الذي بات قادرًا على تقليد أصوات وصور القادة السياسيين بصورة تجعل التمييز بين الحقيقي والمفبرك بالغ الصعوبة.
واستشهدت بحوادث واقعية، مثل مقطع فيديو زائف انتشر على نطاق واسع بعد أسابيع من غزو روسيا لبلده عام 2022 يُظهر الرئيس الأوكراني فولوديمير زيلينسكي وهو يدعو شعبه إلى إلقاء السلاح والاستسلام.
ومع أن الذكاء الاصطناعي أثبت فعاليته في تحسين كفاءة بعض جوانب العمل العسكري، وحتى في بعض مهام جمع المعلومات الاستخبارية التقليدية، إلا أن دومباتشر تعتقد أن إدماجه في الأنظمة العسكرية لا ينبغي أن يكون شاملًا أو غير مشروط.
فهناك مجالات يجب أن تبقى محظورة على الذكاء الاصطناعي، وفي مقدمتها أنظمة الإنذار النووي المبكر وأنظمة القيادة والسيطرة.
كما تحذر أيضًا من "الأزمات المتسلسلة" التي قد تنشأ عندما تُستخدم أنظمة الذكاء الاصطناعي في تفسير بيانات الإنذار المبكر.
وأشارت إلى أن هذه الأنظمة معرضة لما يُعرف بـظاهرة "الهلوسة"، أي استنتاج أنماط أو تهديدات غير موجودة، إضافة إلى ميل البشر إلى الثقة بمخرجات الآلة حتى عندما تكون خاطئة. وترى أن هذا المزيج قد يكرر سيناريوهات شبيهة بحادثة بيتروف، لكن في بيئة معلوماتية أكثر ازدحامًا وضبابية.
وتدعو الكاتبة إلى تبني معايير أعلى للسيطرة البشرية في المجال النووي، تفوق حتى تلك المفروضة على الأسلحة ذاتية التشغيل، مؤكدة أن الأتمتة يجب أن تبقى جزئية ومحدودة، وأن تعتمد القرارات المصيرية فقط على بيانات مؤكدة وغير معدلة.
كما تحث أجهزة الاستخبارات على تحسين تتبع مصدر المعلومات المولدة بالذكاء الاصطناعي، وتدريب صانعي القرار على التعامل بقدر أكبر من الشك مع المحتوى غير القابل للتحقق الفوري.
وتلفت الخبيرة في الأمن الدولي في ختام مقالها إلى أن التحدي الحقيقي في عصر الذكاء الاصطناعي لم يعد يقتصر على منع إطلاق الصواريخ فحسب، بل وعلى الحيلولة دون اتخاذ قرارات نووية بناءً على وهم رقمي قد يقود في نهاية المطاف إلى نهاية العالم.

alafdal-news
