تواجه السلطات البريطانية انتقادات حادة من جمعيات حقوق الإنسان بسبب اعتماد وزارة الداخلية على الذكاء الاصطناعي لمعالجة طلبات اللجوء، ما يثير تساؤلات حول شفافية وعدالة هذه الإجراءات.
وحذّرت جمعيات حقوقية، من بينها منظمة "خصوصية دولية"، من تأثير هذه التقنية على قرارات مصيرية قد تكون غير عادلة بحق المهاجرين، وفق تقرير لموقع "مهاجر نيوز".
وتستخدم وزارة الداخلية البريطانية أدوات الذكاء الاصطناعي للحسم في ملفات اللجوء، لكن البرنامج الذي أثار حفيظة المجتمع المدني على وجه الخصوص يُعرف باسم "تعريف وتحديد الأولويات"، يهدف إلى تسهيل اتخاذ بعض القرارات المتعلقة بملفات المهاجرين وطالبي اللجوء، سواء كانوا بالغين أو أطفالاً.
وأعرب ناشطون حقوقيون عن قلقهم من أن هذه الأداة، التي بدأت وزارة الداخلية البريطانية استخدامها في عام 2020، قد تؤدي إلى اتخاذ قرارات آلية غير عادلة في ملفات طالبي اللجوء، حيث يمكن للمسؤولين أن يوافقوا على التوصيات الصادرة عن الخوارزمية من دون تقييم دقيق لكل حالة على حدة.
وعلى الرغم من أن الحكومة البريطانية تصف النظام بأنه "قائم على القواعد"، ولا يعتمد على الذكاء الاصطناعي فقط، أعرب ناشطون حقوقيون عن قلقهم من أي استخدام للخوارزميات في اتخاذ القرارات المصيرية قد يؤدي إلى "ترميز الظلم".
كيف تستخدم خوارزميات الذكاء الاصطناعي في معالجة ملفات اللجوء؟
في تشرين الأول الماضي، أصدرت منظمة "خصوصية دولية" تقريراً بعنوان "أتمتة البيئة المعادية: خوارزمية سرية لوزارة الداخلية في قلب عملية اتخاذ القرار بشأن الهجرة"، أشارت فيه إلى أن هذا البرنامج "يعتمد على خوارزمية تقدم نصائح للسلطات المعنية، من خلال تقديم توصيات تساعد في اتخاذ قرارات تتعلق بالمهاجرين".
ووفقاً للوثائق التي حصلت عليها المنظمة، تقوم الأداة بتحليل مجموعة واسعة من البيانات المتعلقة بالمهاجرين، بما في ذلك المعلومات البيومترية والحالة الصحية والعرق والسجل الجنائي، لتصدر بعدها توصيات بشأن ما إذا كان ينبغي الإبقاء على ملف الشخص أو إبعاده من إجراءات اللجوء.
وأشارت المنظمة إلى أنها لم تتمكن من الحصول على معلومات حول هذه الأداة إلا بعد عام كامل من تقديم طلب رسمي للسلطات، بموجب قانون حرية المعلومات البريطاني.
وقالت الوثائق الرسمية التي حصلت عليها "الخصوصية الدولية إن استعمال الذكاء الاصطناعي يهدف إلى "تطوير طريقة أكثر سهولة وسرعة وفعالية في تنفيذ قوانين الهجرة، بهدف تحديد الأولويات وتنسيق الخدمات والتدخلات اللازمة لإدارة عبء العمل المرتبط بها".
من جانبه، أوضح وزير الدولة البريطاني للعلوم والتكنولوجيا، بيتر كايل، أن الذكاء الاصطناعي "يمتلك إمكانات هائلة لتحسين خدماتنا العامة"، مشدداً في الوقت نفسه على "أهمية بناء الثقة في هذه الأنظمة، لضمان الاستفادة القصوى من قدراتها".
توصيات الذكاء الاصطناعي في مقابل المعالجة الفردية
وعبرت المنظمات الحقوقية، عن قلقها من أن المهاجرين وطالبي اللجوء "لا يتم إعلامهم بدور الذكاء الاصطناعي في معالجة قضاياهم"، مما يحد من قدرتهم على الطعن في القرارات الصادرة بحقهم.
وذكرت منظمة "الخصوصية الدولية" أن الخوارزمية تقدم توصيات تهدف إلى مساعدة موظفي الهجرة، إلا أن الضغوط الناتجة عن حجم الطلبات الكبير تجعل من السهل اتباع هذه التوصيات من دون التدقيق الكافي في الحالات الفردية.
وأعربت "شبكة حقوق المهاجرين" عن مخاوفها من أن هذا النظام قد يفضي إلى تحيز عرقي، بالنظر إلى أن الذكاء الاصطناعي يعتمد على بيانات منتشرة بشكل واسع، وقد تكون منحازة في الأساس، مشيرة إلى أن ذلك "قد يؤدي إلى زيادة المراقبة على المهاجرين، ويهدد خصوصيتهم نتيجة لتبادل البيانات الواسع بين مختلف الأجهزة الحكومية".
يشار إلى أن دولاً عدة في الاتحاد الأوروبي تعتمد على الذكاء الاصطناعي في قضايا الهجرة، وسبق أن دعت منظمة "العفو الدولية" دول التكتل إلى تنظيم استخدام هذه الأدوات، واتخاذ مواقف حازمة لحظر الأتمتة التي تعتمد على التمييز العنصري، والتحيز ضد المهاجرين والفئات المهمشة.