رئيس التحرير
محمود عبد الحليم
رئيس التحرير التنفيذي
فريد علي
ads

الجماعات المسلحة تجري تجارب على الذكاء الاصطناعي... وتوقعات بتزايد المخاطر

الثلاثاء 16/ديسمبر/2025 - 10:45 ص
الحياة اليوم
نادين اشرف
طباعة

بينما يتسارع العالم من أجل تسخير قوة الذكاء الاصطناعي، تقوم الجماعات المسلحة أيضا بإجراء تجارب على هذه التقنية، حتى وإن لم تكن متأكدة تماما مما سوف تستخدمها فيه.

وحذر خبراء الأمن القومي والوكالات الاستخباراتية من إمكانية أن يكون الذكاء الاصطناعي أداة فعالة بالنسبة للجماعات المتطرفة، لتستخدمه من أجل تجنيد أعضاء جدد، وتوليد صور واقعية مفبركة، وصقل هجماتها الإلكترونية.

وكان شخص ما قام في الشهر الماضي، من خلال منشور على موقع إلكتروني موالِ لتنظيم (داعش)، بحث أنصار التنظيم الآخرين على جعل الذكاء الاصطناعي جزءا من عملياتهم. وكتب المستخدم باللغة الإنجليزية: "من أفضل مزايا الذكاء الاصطناعي هو أن استخدامه في غاية السهولة".

وتابع المستخدم: "تخشى بعض وكالات الاستخبارات من أن يسهم الذكاء الاصطناعي في عمليات التجنيد... إذن، فلنحول كابوسهم إلى حقيقة".

ويشار إلى أن تنظيم داعش - الذي سيطر على أراضي في العراق وسوريا قبل أعوام، ولكنه صار في الوقت الحالي تحالفا لا مركزي يضم جماعات مسلحة لها أيديولوجية عنيفة – أدرك قبل أعوام أن وسائل التواصل الاجتماعي يمكن أن تكون أداة فعّالة للتجنيد ونشر المعلومات المضللة، لذلك فإنه ليس من الغريب أن تختبر الجماعة المسلحة تقنية الذكاء الاصطناعي، بحسب ما يقوله خبراء الأمن القومي.

أما بالنسبة للجماعات المتطرفة غير المنظمة ذات الموارد المحدودة، فإنه يمكن استخدام الذكاء الاصطناعي لبث الدعاية الكاذبة أو مقاطع الفيديو المفبركة على نطاق واسع، فيما يوسع نطاق وصولها ومدى تأثيرها.

ومن جانبه، يقول جون لاليبيرت، الباحث السابق في مجال الثغرات الأمنية بوكالة الأمن القومي، والرئيس التنفيذي الحالي لشركة "كلير فيكتور" للأمن السيبراني: "بالنسبة لأي خصم، يعمل الذكاء الاصطناعي على جعل الأمور أكثر سهولة. فمن خلاله، يمكن حتى للجماعات الصغيرة التي ليس لديها الكثير من المال، إحداث تأثير".

لقد بدأت الجماعات المسلحة في استخدام الذكاء الاصطناعي بمجرد أن صارت برامج مثل "تشات جي بي تي" متاحة على نطاق واسع. وفي الأعوام اللاحقة، زاد استخدامها لبرامج الذكاء الاصطناعي التوليدية لعمل صور ومقاطع فيديو تبدو واقعية.

وعند ربطه بخوارزميات وسائل التواصل الاجتماعي، من الممكن أن يساعد هذا المحتوى الزائف في استقطاب أفراد جدد، وتضليل الأعداء أو إخافتهم، ونشر دعاية على نطاق لم يكن متخيلا قبل بضعة أعوام.

يقول ماركوس فولر، العميل السابق لدى وكالة المخابرات المركزية الأمريكية (سي.آي.إيه) والرئيس التنفيذي الحالي لـ"دارك تريس فيدرال"، وهي شركة للأمن السيبراني تعمل مع الحكومة الاتحادية، إن هذه الجماعات لا تزال متأخرة عن الصين وروسيا وإيران، وتنظر إلى الاستخدامات الأكثر تعقيدا للذكاء الاصطناعي بوصفها "طموحة".

إلا أن المخاطر أصعب بكثير من أن يتم تجاهلها، ومن المرجح أن تتفاقم في ظل توسع استخدام الذكاء الاصطناعي رخيص الثمن الشديد الفعالية ، بحسب ما يقوله فولر.

يقوم قراصنة الانترنت بالفعل باستخدام الصوت والفيديو الاصطناعيين في حملات التصيد الاحتيالي، حيث يحاولون انتحال شخصية مسؤول رفيع في قطاع الأعمال أو الحكومة بغرض الوصول إلى الشبكات الحساسة. كما يمكنهم أيضا استخدام الذكاء الاصطناعي في كتابة رموز تشفير خبيثة أو أتمتة بعض جوانب الهجمات الإلكترونية.

أما الأمر الأكثر إثارة للقلق فهو احتمال لجوء الجماعات المسلحة إلى استخدام الذكاء الاصطناعي للمساعدة في إنتاج أسلحة بيولوجية أو كيميائية، لتعويض نقص الخبرة التقنية.

ويقول فولر، إن "تنظيم داعش اشترك على منصة تويتر في توقيت مبكر، ووجد طرقا لاستخدام وسائل التواصل الاجتماعي لصالحه... إنهم يبحثون دائما عن الخطوة التالية من أجل عمل إضافة جديدة إلى ترسانتهم."

تقدم المشرعون بالعديد من المقترحات، مؤكدين على الحاجة الملحة للتحرك.

فقال السناتور مارك وارنر من ولاية فرجينيا، وهو أبرز الديمقراطيين في لجنة الاستخبارات بمجلس الشيوخ، إنه يجب على الولايات المتحدة أن تقوم - على سبيل المثال - بتسهيل تبادل المعلومات بين مطوري الذكاء الاصطناعي بشأن كيفية استخدام منتجاتهم من جانب جهات خبيثة، سواء كانت هذه الجهات لمتطرفين أو قراصنة إلكترونيين أو جواسيس أجانب.

وقد علم أعضاء مجلس النواب، خلال جلسة استماع تم عقدها مؤخرا بشأن التهديدات المتطرفة، أن تنظيم داعش والقاعدة قد نظما ورش عمل تدريبية لمساعدة التابعين لهما على تعلم استخدام تقنية الذكاء الاصطناعي.

وينص تشريع أقره مجلس النواب الأمريكي الشهر الماضي، على إلزام مسؤولي الأمن الداخلي بتقييم مخاطر الذكاء الاصطناعي التي تشكلها مثل هذه الجماعات سنويا.

                                           
ads
ads
ads