أيلاف - 3/2/2026 8:29:02 AM - GMT (+4 )
إيلاف من القدس: تطرح الصحافة الأميركية وكذلك الأوروبية بعض التساؤلات التي قد تشكل الإجابة عليها "كلمة السر" في هزيمة قادمة لطهران أمام أميركا وإسرائيل، واللافت أن هذه التساؤلات تتعلق بتأثيرات الذكاء الاصطناعي في المعركة الحالية، ومن ثم في الحروب القادمة.
فهل يمكن أن يكون السلاح السري وراء نجاح العملية العسكرية الإسرائيلية الأمريكية المشتركة الأخيرة في إيران، والتي أسفرت عن اغتيال المرشد الأعلى السابق علي خامنئي ومسؤولين كبار آخرين، هو نفس برنامج الدردشة الآلي الذي يستخدمه الملايين كل يوم؟
بحسب تقرير نشرته صحيفة "وول ستريت جورنال"، استخدم الجيش الأمريكي نموذج الذكاء الاصطناعي "كلود" التابع لشركة أنثروبيك للمساعدة في الضربات الإسرائيلية الأميركية ضد إيران.
وأشار الدكتور مايكل سي. هورويتز، من مجلس العلاقات الخارجية ونائب مساعد وزير الدفاع السابق، إلى أن القيادة المركزية الأمريكية ( CENTCOM ) كانت "واحدة من أكثر القيادات الأميركية تقدماً عندما يتعلق الأمر بتجربة التقنيات الناشئة".
لم تكن العملية في إيران حادثة معزولة. فقد ذكرت صحيفة وول ستريت جورنال أن البنتاغون سبق أن استخدم نظام الذكاء الاصطناعي "كلود" خلال عملية القبض على الرئيس الفنزويلي نيكولاس مادورو في يناير (كانون الثاني).
وأشار الدكتور هورويتز إلى أن دور الذكاء الاصطناعي كان على الأرجح مُركزًا على جمع المعلومات الاستخباراتية من مصادر مفتوحة (OSINT). وأضاف: "أراهن أنه استُخدم لأغراض مثل الاطلاع على الخرائط أو التحقق من مصادر الإعلام الفنزويلية، كالمراقبة الآنية لمنشورات وسائل التواصل الاجتماعي الفنزويلية بهدف تزويد الجيش الأمريكي بمعلومات إضافية".
وادي السيليكون والمؤسسة الدفاعية
مع ذلك، ورغم أن الذكاء الاصطناعي ربما ساهم في تحقيق نجاحات تكتيكية في طهران وغيرها، فقد نشأت فجوة بين وادي السيليكون والمؤسسة الدفاعية. انفصل البنتاغون عن شركة أنثروبيك بعد رفضها رفع القيود الأمنية المصممة لمنع استخدام ذكائها الاصطناعي في العمليات القتالية.
كتب الرئيس الأميركي دونالد ترامب على موقع Truth Social بعد إعلان البيت الأبيض قطع العلاقات مع شركة Anthropic: "لن تسمح الولايات المتحدة أبدًا لشركة يسارية متطرفة ومتعصبة بأن تملي على جيشنا العظيم كيف يخوض الحروب وينتصر فيها!".
وكتب قائلاً: "سنقرر مصير بلدنا - وليس شركة ذكاء اصطناعي يسارية متطرفة خارجة عن السيطرة يديرها أشخاص ليس لديهم أدنى فكرة عما يدور حوله العالم الحقيقي".
يمثل دمج نماذج اللغة الكبيرة (LLMs) في سلسلة عمليات القتل تحولاً جذرياً في الحروب الحديثة.
وقد صرح ستيف فيلدشتاين، وهو زميل بارز في برنامج الديمقراطية والصراع والحوكمة، لصحيفة "واشنطن بوست" بأن هذه الأدوات التجارية ذات استخدام مزدوج.
وقال فيلدشتاين: "هذه أداة لها أغراض استخباراتية ومراقبة، ومن المحتمل أن يكون لها أغراض أيضًا عندما يتعلق الأمر بالأجهزة الفتاكة والعمليات الفتاكة".
قيام روبوت محادثة بإطلاق النار تبدو ضرباً من الخيال
رغم أن فكرة قيام روبوت محادثة بإطلاق النار تبدو ضرباً من الخيال العلمي، إلا أن الدعم اللوجستي لهذا الروبوت أصبح واقعاً ملموساً. صرّح إميل مايكل، وكيل وزارة الدفاع لشؤون البحث والهندسة، في مقابلة مع شبكة سي بي إس، بأن اهتمام الجيش الأولي بأدوات مثل "كلود" نابع من تعقيد عمليات الانتشار الحديثة.
قال مايكل: "في السياق العسكري، هناك الكثير من الأمور اللوجستية. كيف أنقل شيئاً من مكان إلى آخر؟ ما مقدار المعدات التي أملكها في كل مكان؟ ما الذي أحتاجه للتحرك بكفاءة؟ ما هي الإمدادات التي قد أحتاجها لمهمة معينة؟"
قال داريو أمودي، الرئيس التنفيذي لشركة أنثروبيك، في مقابلة مع برنامج "60 دقيقة " على شبكة سي بي إس : " أشعر بقلق بالغ حيال المجهول. لا أعتقد أننا نستطيع التنبؤ بكل شيء على وجه اليقين. ولكن لهذا السبب تحديداً، نحاول التنبؤ بكل ما نستطيع. نحن نفكر في إساءة الاستخدام".
أشار هورويتز إلى أن تردد شركات التكنولوجيا غالباً لا يكون أخلاقياً فحسب، بل عملياً أيضاً. "لم يكن الاعتراض على أنظمة الأسلحة ذاتية التشغيل أخلاقياً أو قيمياً، بل كان اعتراضهم نابعاً من اعتقادهم بأن هذه التقنية لم تكن جاهزة للاستخدام على نطاق واسع بعد."
أخلاقيات استخدام الذكاء الاصطناعي في الحروب
يُشير التقرير إلى أنه بينما تُناقش الولايات المتحدة أخلاقيات استخدام الذكاء الاصطناعي في الحروب، فقد دمجت إسرائيل هذه الأنظمة بالفعل بشكلٍ عميق في بنيتها العسكرية. وقد خضع استخدام الجيش الإسرائيلي للذكاء الاصطناعي في قطاع غزة لتحديد الأهداف لتدقيق دولي مكثف.
أشار فيلدشتاين إلى أن "إسرائيل من الدول التي تستخدم هذه الأنظمة بكفاءة عالية، والتي تُعرف باسم "أنظمة دعم القرار". وأوضح أن هذه الأنظمة تُستخدم "لتحديد المشتبه بهم على نطاق واسع بهدف تنفيذ ضربات قاتلة. فعلى سبيل المثال، تُستخدم لتحديد مواقع حماس، أي أين يتواجد مقاتلوها؟ وذلك من خلال تحديد الموقع الجغرافي، وتسجيل المكالمات الهاتفية، وتلقي الرسائل النصية".
البنتاغون يتحول من التركيز على الإنسان إلى الذكاء الاصطناعي المفتوح
مع خروج شركة أنثروبيك من قطاع الدفاع، تحول البنتاغون الآن إلى منافس لديه مخاوف أقل بشأن التطبيقات العسكرية: وهو برنامج ChatGPT من شركة OpenAI.
أعلن سام ألتمان ، الرئيس التنفيذي لشركة OpenAI، يوم الجمعة أن الشركة ستبدأ العمل مع وزارة الدفاع لتقديم خدمات الذكاء الاصطناعي للوثائق السرية.
وقال ألتمان في بيان: "لقد توصلنا الليلة إلى اتفاق مع وزارة الحرب التي أعادت إدارة ترامب تسميتها بوزارة الدفاع لنشر نماذجنا في شبكتهم السرية".
قال وكيل وزارة الدفاع الأمريكية لشؤون البحث والهندسة في مقابلة: "ما نحاول فعله هو استخدام هذه التقنية في جميع حالات الاستخدام المشروعة". وأضاف مايكل: "طالما أنها مشروعة، فإننا نريد التعامل معها كأي تقنية أخرى".
الحرب الخوارزمية
ومع ذلك، حذر فيلدشتاين من أن استبدال نظام ذكاء اصطناعي بآخر لا يحل المخاطر الكامنة في الحرب الخوارزمية، لا سيما فيما يتعلق بالهلوسة أو التحيز.
حذّر فيلدشتاين قائلاً: "إذا أدخل النظام تحيزاته الخاصة عند تقديم المعلومات، فأعتقد أن ذلك يثير تساؤلات حول مدى موثوقية تلك المعلومات. إذا كنت تعتمد على نظام ما لتوفير معلومات استخباراتية قد تستخدمها في الاستهداف، فهل ترغب في العمل على نظام يُظهر تحيزات قد لا تُقدّم لك معلومات دقيقة تمامًا؟"
مع تصاعد التوترات العالمية، بات الخط الفاصل بين محرك البحث وسلاح الحرب غير واضح بشكل متزايد. فما بدأ كأداة لكتابة البرامج والشعر، أصبح الآن، وفقًا لمسؤولي الدفاع، عنصرًا أساسيًا في استخدام القوة الفتاكة.
إقرأ المزيد


