حين تقرر الخوارزميات مصير الرؤساء

2026.02.15 - 08:36
Facebook Share
طباعة

 في الثالث من يناير/كانون الثاني 2026، أعلنت واشنطن تنفيذ عملية عسكرية خاطفة في كاراكاس أُطلق عليها اسم “العزم المطلق”، انتهت باعتقال الرئيس الفنزويلي Nicolás Maduro وزوجته، بتهم تتعلق بالاتجار بالمخدرات. الحدث السياسي كان مدوّياً بحد ذاته، لكن الصدمة الأكبر لم تكن في المشهد العسكري، بل في الكشف عن دور تقني غير مسبوق لنموذج ذكاء اصطناعي يُسوّق بوصفه “أخلاقياً وآمناً”.

وفق تسريبات وتقارير إعلامية أمريكية، لعب نموذج “كلاود” (Claude) التابع لشركة Anthropic دوراً تحليلياً محورياً في العملية، عبر دمجه داخل بنية استخباراتية وفرتها شركة Palantir Technologies، المتعاقدة مع وزارة الدفاع الأمريكية. هكذا، وجد نموذج صُمم لتقليل المخاطر المجتمعية نفسه في قلب عملية عسكرية معقدة.


بوابة العبور إلى الشبكات السرية
لسنوات، بنت “أنثروبيك” سمعتها على خطاب “الذكاء الاصطناعي الآمن”، مؤكدة التزامها بسياسات تمنع استخدام تقنياتها في دعم العنف أو تطوير الأسلحة أو أنشطة المراقبة القسرية. لكن الواقع العملياتي كشف مساراً أكثر تعقيداً.

لم يُستخدم “كلاود” عبر واجهة دردشة تقليدية، بل جرى دمجه في منصات تحليل البيانات التابعة لـ“بالانتير”، التي تُعد أحد أبرز مزودي الحكومة الأمريكية في مجالات الاستخبارات وتحليل البيانات الضخمة. هذا الدمج أتاح للنموذج الوصول إلى تدفقات بيانات حساسة ضمن بيئات مصنفة، وهو أمر لا توفره معظم شركات الذكاء الاصطناعي التجارية.

الميزة التقنية الحاسمة كانت قدرة “كلاود” على العمل ضمن إعدادات سرية عبر أطراف ثالثة، وهو ما سمح له بتحليل كميات هائلة من البيانات الاستخباراتية في زمن قياسي، متجاوزاً القدرات البشرية التقليدية في الفرز والربط والاستنتاج.


“العقل التحليلي” خلف العملية
بحسب مصادر مطلعة، لم يتحكم النموذج في أسلحة أو أنظمة إطلاق نار، لكنه لعب دور “العقل التحليلي” الذي رسم الخريطة الاستخباراتية للعملية. وشملت مهامه:
تحليل الصور العلوية: معالجة صور أقمار صناعية عالية الدقة لتحديد تحركات وأماكن حساسة.
دمج البيانات متعددة المصادر: ربط معلومات استخباراتية متداخلة من مصادر بشرية وتقنية.
الدعم اللحظي: تحليل بيانات واردة أثناء التنفيذ لتحديث التقديرات وتقديم توصيات تكتيكية.

وفي حين تولت أنظمة عسكرية مستقلة مهام الإدارة الميدانية، بقي “كلاود” في موقع “المحلل الفائق” الذي يختصر الوقت ويقلل هامش الخطأ. هذا الفصل التقني بين “التحليل” و”التنفيذ” أصبح محور جدل أخلاقي واسع: هل يكفي عدم الضغط على الزناد للتنصل من مسؤولية النتائج؟


مأزق أخلاقي لشركة “أنثروبيك”
العملية وضعت الشركة ورئيسها التنفيذي Dario Amodei أمام اختبار حقيقي. فالشركة التي شددت مراراً على مخاطر تسليح الذكاء الاصطناعي وجدت نفسها في قلب عاصفة إعلامية.

تقارير من بينها ما نشرته The Wall Street Journal أشارت إلى استخدام “كلاود” في العملية، بينما اكتفت الشركة بالقول إنها لا تستطيع التعليق على استخدامات محددة لمنتجها. هذا الرد لم يُنهِ الجدل، بل فتح باباً أوسع للتساؤل حول حدود المسؤولية: هل تقع على عاتق المطور، أم المستخدم، أم الوسيط التقني؟

تقول مصادر قريبة من الشركة إن تحقيقاً داخلياً فُتح لتقييم ما إذا كان الاستخدام قد خالف سياسات المنصة. غير أن التحدي يكمن في أن البيئة العملياتية المعقدة تجعل تتبع “نية الاستخدام” أمراً بالغ الصعوبة، خصوصاً عند وجود وسطاء تقنيين.


توتر مع البنتاغون
وزارة الدفاع الأمريكية، التي تسعى إلى توسيع استخدام أدوات الذكاء الاصطناعي ضمن شبكاتها السرية، تنظر إلى هذه القيود بوصفها عائقاً عملياتياً. وتشير تقارير إلى أن عقداً بمئات ملايين الدولارات بين الجانبين بات قيد المراجعة، وسط نقاش داخلي حول مدى جدوى الشراكة إذا كانت الشركة ستفرض قيوداً أخلاقية صارمة على الاستخدام.

في المقابل، تخشى شركات التقنية من أن يؤدي الانخراط الكامل في العمليات العسكرية إلى تقويض ثقة المستخدمين المدنيين، وإلى انزلاق تدريجي نحو سباق تسلح خوارزمي لا تحكمه أطر واضحة.


واقع جديد للحروب
ما كشفته عملية كاراكاس يتجاوز تفاصيل اعتقال رئيس دولة. لقد أظهرت أن التفوق العسكري لم يعد يُقاس فقط بعدد الطائرات أو حجم العتاد، بل بقدرة النماذج الحسابية على العمل داخل شبكات مغلقة وتحويل البيانات الخام إلى قرارات في الزمن الحقيقي.

التحول الأخطر ربما يكمن في “تطبيع” هذا النوع من الاستخدام. فإذا كان الذكاء الاصطناعي قد لعب دوراً تحليلياً اليوم، فما الذي يمنع أن يتوسع دوره غداً ليشمل مستويات أعمق من القرار؟ هنا يكمن جوهر الصدام بين شركات ترفع شعار “الأمان أولاً”، وجيوش ترى في التقنية فرصة لا تُفوّت لتعزيز الهيمنة.


بين المبادئ والمصالح
قصة “كلاود” في كاراكاس ليست مجرد واقعة تقنية، بل اختبار فلسفي وسياسي. هل يمكن فعلاً الفصل بين “ذكاء اصطناعي أخلاقي” وواقع جيوسياسي شديد التعقيد؟ أم أن أي أداة قوية ستجد طريقها عاجلاً أو آجلاً إلى ساحات الصراع؟

في زمن تتقاطع فيه الخوارزميات مع الاستراتيجيات العسكرية، يبدو أن الحدود بين المختبر وغرفة العمليات أصبحت أرق من أي وقت مضى. والسؤال الذي سيحدد ملامح المرحلة المقبلة ليس إن كانت الجيوش ستستخدم الذكاء الاصطناعي، بل كيف، وبأي ضوابط، ومن يملك الكلمة الأخيرة عندما تتعارض الأخلاقيات مع الحسابات الأمنية.

Facebook Share
طباعة عودة للأعلى
اضافة تعليق
* اكتب ناتج 9 + 4