يسعى المهندسون والخبراء حول العالم إلى إيجاد طريقة لجعل الذكاء الاصطناعي يمحو أخطاءه، وذلك بعد أن أساء برنامج "تشات جي بي تي" أحد برامج الذكاء الاصطناعي المشهورة إلى سياسي أسترالي، ونسب إليه ماضياً إجرامياً.
ووسط الكم الهائل من البيانات التي يُدرب الذكاء الاصطناعي عليها، يسعى المهندسون إلى حلول تتيح تحديداً أكبر، بحيث تُزال المعلومات الخاطئة من مجال معرفة أنظمة الذكاء الاصطناعي بغية وقف انتشارها.
ويؤكد الخبراء أن حل هذه المسألة "إلغاء التعلّم" (أي جعل الذكاء الاصطناعي ينسى بعض ما تلقّنه)، ستكون بالغة الأهمية في السنوات المقبلة، خصوصاً في ضوء التشريعات الأوروبية لحماية البيانات.
وحول هذا الموضوع، نقلت وكالة الصحافة الفرنسية عن أستاذة علوم المعلومات في جامعة "آر إم آي تي" في ملبورن "ليسا غيفن"، قولها إن القدرة على محو البيانات الموجودة في قواعد بيانات التعلّم هي موضوع مهم جداً"، موضحة أنها ترى أن جهداً كبيراً ما يزال مطلوباً في هذا المجال نظراً إلى النقص الحالي في المعرفة في شأن كيفية عمل الذكاء الاصطناعي.
تصحيح الأخطاء
وعملت شركة "غوغل ديب مايند" الأميركية، المختصة في الذكاء الاصطناعي، على معالجة هذه المشكلة، حيث نشر خبراء من الشركة الأميركية الشهر الماضي خوارزمية مخصصة لمحو البيانات في نماذج لغوية مهمة، كنموذجَي "تشات جي بي تي" و"بارد".
وشارك أكثر من ألف خبير في مسابقة أطلقتها الشركة الأميركية، وعملوا بشكل مكثف ما بين تموز وأيلول لتحسين أساليب "إلغاء تعلّم" الذكاء الصناعي.
وتتمثل الطريقة المستخدمة المشابهة لما توصلت إليه أبحاث أخرى في هذا المجال، في إدخال خوارزمية تأمر الذكاء الاصطناعي بعدم أخذ بعض المعلومات المكتسبة في الاعتبار، ولا تتضمن تعديل قاعدة البيانات.
بدوره، يرى الخبير في هذا المجال "مقداد كرمانجي"، أن هذه العملية يمكن أن تكون "أداة مهمة جداً" لتمكين أدوات البحث من الاستجابة مثلاً لطلبات الحذف، عملاً بقواعد حماية البيانات الشخصية، مؤكداً أن الخوارزمية التي تم التوصل إليها أثبتت فاعليتها أيضاً في إزالة المحتوى المحميّ بموجب حقوق المؤلف أو في تصحيح بعض التحيزات.
في المقابل، يرى البعض أن الحل التقني ليس الحل الناجع، وأن هناك أولويات أخرى يجب الاهتمام بها، حيث أوضح مسؤول الذكاء الاصطناعي في شركة "ميتا" يانّ لوكان، أنه لا يعتبر أن هذه الخوارزمية "غير مجدية أو غير مثيرة للاهتمام أو سيئة"، بل يرى أن "ثمة أولويات أخرى".
كما أكد أستاذ الذكاء الصناعي في جامعة إدنبره مايكل روفاتسوس أن "الحل التقني ليس الحل الناجع لهذه المشكلة"، مضيفاً أن "إلغاء التعلم" لن يتيح طرح أسئلة أوسع، ككيفية جمع البيانات، ومن المستفيد منها، أو من يجب أن يكون مسؤولا عن الضرر الذي يسببه الذكاء الصناعي.