بعد أيام من الهجوم المدمر الذي شنه تنظيم الدولة "داعش" على قاعة كبرى للحفلات الموسيقية في روسيا خلال شهر آذار الماضي، ظهر رجل يرتدي بزة عسكرية وخوذة في فيديو انتشر عبر الإنترنت ليحتفي بهذا الهجوم الذي راح ضحيته أكثر من 140 شخصاً.
أخذ ذلك الرجل يتحدث بالعربية ويقول: "وجهت الدولة الإسلامية ضربة قوية لروسيا من خلال هجوم دموي يعتبر الأعنف من نوعه خلال سنوات" وذلك بحسب ما أعلنته مجموعة سايت الاستخبارية وهي منظمة تتعقب المحتوى "الإرهابي" عبر الإنترنت وتقوم بتحليله.
بيد أن الرجل الذي ظهر في الفيديو لم يكن رجلاً حقيقياً، وهذا ما لم تتمكن وكالة رويترز من ملاحظته بصورة مستقلة، بل إنه صنع بواسطة الذكاء الصناعي بحسب ما أعلنته مجموعة سايت وغيرها من الباحثين عبر الإنترنت.
"استثناء خارج من القواعد"
تمكن فيديريكو بورغونوفو وهو باحث في المعهد الملكي للخدمات الموحدة بلندن من تعقب هذا الفيديو المصنوع بالذكاء الصناعي ورده إلى أصله الذي يعود إلى أحد مؤيدي تنظيم الدولة الناشطين في المجال الرقمي التابع لهذا التنظيم.
صدرت عن هذا الشخص تصريحات ونشرات وبيانات نقلت عن وسائل إخبارية رسمية تابعة لتنظيم الدولة، ولذلك صار بالإمكان صنع فيديو له باستخدام الذكاء الصناعي بحسب ما شرحه بورغونوفو.
وعلى الرغم من أن تنظيم الدولة يستخدم الذكاء الصناعي منذ مدة، يرى بورغونوفو بأن هذا الفيديو كان: "استثناء خارجاً عن القواعد" لأن جودة الإنتاج عالية على الرغم من أن الفيديو لم يكن عنيفاً مثل بقية المنشورات الصادرة عن هذا الشخص عبر الإنترنت.
وتعليقاً على ذلك يقول بورغونوفو: "يعتبر هذا الفيديو جيداً كمنتج صنع بواسطة الذكاء الصناعي، ولكن من حيث العنف والدعاية بحد ذاتها، فتعتبر جودته متوسطة"، لكنه تحدث عن مدى تكثيف مؤيدي تنظيم الدولة وعناصره لإنتاج المحتوى المتعاطف مع هذا التنظيم ونشره عبر الإنترنت.
يرى الخبراء في المجال الرقمي بأن جماعات مثل تنظيم الدولة وحركات اليمين المتطرف أصبحت تزيد من اعتمادها على الذكاء الصناعي عبر الإنترنت، وذلك في اختبارها لحدود قيود السلامة على منصات التواصل الاجتماعي.
تقصير من شركات التقانة
في دراسة أجراها مركز مكافحة الإرهاب في نيويورك خلال شهر كانون الثاني تبين بأنه يمكن الاستعانة بالذكاء الصناعي لتوليد الدعاية ونشرها، ولتجنيد روبوتات محادثة تعمل بالذكاء الصناعي واستغلالها، إلى جانب تنفيذ هجمات بمسيرات أو غيرها من المركبات المستقلة، والاستعانة بالذكاء الصناعي لشن هجمات سيبرانية.
يعلق على ذلك ستيفان بيلي وهو أستاذ العلاقات الدولية بجامعة UCLouvain البلجيكية، فيقول: "لم تدرس أغلب تقييمات مخاطر الذكاء الصناعي بل حتى تلك المتعلقة بالذكاء الصناعي التوليدي هذه المشكلة على وجه الخصوص، بل تطرقت لها بشكل سريع، ثم إن كبرى شركات الذكاء الصناعي التي تتعامل بصدق مع مخاطر أدواتها عبر نشر تقارير مطولة في بعض الأحيان حول طرق استعمالها، لا تولي كبير اهتمام باستخدام الذكاء الصناعي على يد المتطرفين والإرهابيين".
يذكر أن الضوابط التي تحكم الذكاء الصناعي ما تزال في طور الصياغة في مختلف بقاع العالم، إذ أعلن الرواد في هذا المجال التقني بأنهم سيسعون جاهدين لضمان التعامل معها بشكل آمن وسليم، فعلى سبيل المثال، طورت شركة التقانة العملاقة مايكروسوفت معياراً للذكاء الصناعي المسؤول والهدف منه تحديد ستة مبادئ لتطوير الذكاء الصناعي وتشمل الإنصاف والموثوقية، والسلامة، والخصوصية والأمان، والمشاركة، والشفافية والمحاسبة.
وفي تقرير خاص نشر في مطلع هذا العام، كتبت ريتا كاتز مؤسسة مجموعة سايت الاستخبارية ومديرتها التنفيذية بأن مجموعة من العناصر الفاعلة التي تشمل عناصر في جماعة القاعدة المقاتلة وصولاً إلى شبكات النازية الجديدة، أصبحت تستثمر في هذه التقانة، وأضافت: "من الصعب التقليل من فائدة الذكاء الصناعي بالنسبة للإرهابيين والجماعات المتطرفة التي أصبح الإعلام لديها بمثابة شريان يمدها بالحياة".
عندما وصل تنظيم الدولة لذروة سطوته في عام 2014، وأعلن سيطرته على مساحات شاسعة من سوريا والعراق، فرض حكمه بحد السيف في المناطق الخاضعة لسيطرته، ولهذا أصبح الإعلام أهم أداة في ترسانة هذه الجماعة، كما أضحى التجنيد عبر الإنترنت أمراً ضرورياً لمواصلة تنفيذ عملياته.
على الرغم من انهيار التنظيم في عام 2017، ما يزال مؤيدو تنظيم الدولة والعناصر التابعة له ينشرون عقيدته عبر الإنترنت ويحاولون إقناع الناس بالانضمام إلى صفوفه.
إذ خلال الشهر الماضي، ذكر مصدر أمني لرويترز بأن فرنسا حددت هوية أكثر من عشرة عناصر من تنظيم الدولة في خراسان، وهؤلاء يقيمون في الدول المحيطة بأفغانستان ولديهم حضور قوي على الإنترنت، ويحاول هؤلاء إقناع الشبان المقيمين في الدول الأوروبية والمهتمين بالانضمام إلى التنظيم في الخارج، بتنفيذ عمليات داخل تلك الدول بدلاً من السفر بهدف الانضمام للتنظيم.
يعتبر تنظيم الدولة في خراسان أحد أجنحة تنظيم الدولة، ويعود اسمه لمنطقة خراسان التاريخية التي تشمل أجزاء من إيران وأفغانستان ووسط آسيا.
روبوتات تحاكي عناصر تنظيم الدولة
يخشى المحللون من احتمال تسهيل الذكاء الصناعي تلك الأعمال عبر الإنترنت وأتمتتها، وعلى رأس تلك الأعمال عملية تجنيد الشبان عبر الإنترنت.
يخبرنا دانييل سيغيل وهو محقق يعمل لدى شركة غرافيكا المتخصصة بأبحاث وسائل التواصل الاجتماعي بأن فريقه عثر بالصدفة على روبوتات محادثة تحاكي الموتى والمساجين من عناصر تنظيم الدولة، وذكر لرويترز بأنه لم يتبين إن كان مصدر تلك الروبوتات هو تنظيم الدولة أم مؤيدوه، لكن الخطر الذي تشكله تلك الروبوتات حقيقي، ويعلق سيغيل على ذلك بقوله: "أصبح بوسع عناصر تنظيم الدولة الآن بناء علاقات حقيقية مع الروبوتات التي تمثل حالة مستقبلية يمكن من خلالها لروبوت محادثة تشجيع الناس على المشاركة في عنف فعلي".
تفاعل سيغيل مع بعض الروبوتات خلال بحثه، فتبين له بأن إجاباتها عامة، لكنه يرى بأنها بوسعها أن تتغير مع تطور تقنية الذكاء الصناعي، ويضيف: "من الأمور التي تقلقني أيضاً كيف سيسمح الإعلام المركب لتلك الجماعات بخلط محتواها الموجود سلفاً ضمن مستودعات مع ثقافتنا السائدة".
إلا أن ذلك حدث فعلاً، فقد تعقبت غرانيكا فيديوهات لشخصيات كرتونية شهيرة، مثل ريك ومورتي وبيتر غريفين، فاكتشفت بأنها أصبحت تنشد أناشيد تنظيم الدولة عبر منصات مختلفة.
ويعلق سيغيل على ذلك بقوله: "ما يتيحه ذلك لتنظيم الدولة أو لعناصره أو للمتعاطفين معه هو استهداف جمهور معين بما أنهم يعرفون بأن الجمهور العادي لسبونج بوب أو بيتر غريفين أو ريك ومورتي سيصله هذا المحتوى من خلال الخوارزميات".
استغلال التعليمات
ثمة خطر آخر يتمثل باستغلال مؤيدي تنظيم الدولة لتقنية الذكاء الصناعي في توسيع معارفهم عن الأنشطة غير المشروعة، إذ في الدراسة التي نشرت في شهر كانون الثاني، حاول الباحثون في مركز مكافحة الإرهاب تجاوز الحراسة الأمنية المفروضة على الأنماط اللغوية الموسعة وذلك لاستخلاص المعلومات التي يمكن لأي جهة خبيثة استغلالها، فصاغوا تعليمات من أجل ذلك بحيث تطلب المعلومات المتعلقة بسلسلة من الأنشطة ابتداء من التخطيط للهجوم وصولاً إلى التجنيد والتعلم التكتيكي، فولدت الأنماط اللغوية الموسعة إجابات لها علاقة بتلك الأمور مع نصف التعليمات التي أمرت بها.
وفي مثال وصفه الباحثون بالمفزع، طلب الباحثون من أحد الأنماط اللغوية الموسعة مساعدتهم في إقناع الناس على التبرع لصالح تنظيم الدولة، فجاء في التقرير بأن النمط: "قدم عندئذ إرشادات محددة جداً عن طريقة إطلاق حملة للتبرعات، بل وقدم سرديات محددة وجملاً معينة يمكن استخدامها عبر وسائل التواصل الاجتماعي لهذا الغرض".
يرى جو بروتون وهو أستاذ الأمن الدولي لدى جامعة لانكاستر بأن الشركات تصرفت بطريقة غير مسؤولة عندما نشرت أنماط الذكاء الصناعي بصورة سريعة لتستخدم كأدوات مفتوحة المصادر، وشكك هذا الرجل بفعالية بروتوكولات السلامة التي وضعت من أجل الأنماط اللغوية الموسعة، وقال بإنه لم يقتنع بأن المشرعين لديهم ما يساعدهم على فرض عمليات اختبار وتحقق من هذه الطرائق، وعلق على ذلك بقوله: "إن العامل الواجب مراعاته هنا هو مدى رغبتنا بفرض قوانين على هذا الأمر، وهل سيخنق ذلك حالة الابتكار أم لا، وبرأيي لا يجوز للأسواق التغاضي عن مسألة السلامة والأمان، مع أن هذا ما يحدث الآن باعتقادي".
المصدر: The Jerusalem Post