Slide showأخبار أوروبا

مخاوف من التمييز والقرارات الآلية: أداة الذكاء الاصطناعي للهجرة في بريطانيا تثير الجدل

Advertisements

 

أثارت أداة الذكاء الاصطناعي التي أطلقتها وزارة الداخلية البريطانية، لتنفيذ قرارات الترحيل بحق المهاجرين، سواء من البالغين أو الأطفال، مخاوف وانتقادات من قبل نشطاء حقوق الإنسان.

الأداة، التي وصفت بأنها “موظف آلي”، يُعتقد أنها قد تجعل من السهل على المسؤولين إقرار قرارات تؤثر على حياة الناس دون مراجعة كافية، حيث تعتمد على خوارزمية للتوصية باتخاذ إجراءات، بما في ذلك إعادة الأفراد إلى بلدانهم.

ورغم تأكيد الحكومة على أن الأداة تزيد من الكفاءة عبر ترتيب أولويات العمل، إلا أن الحملة الدولية لخصوصية البيانات كشفت عن تفاصيل مقلقة بعد معركة استمرت عامًا للحصول على المعلومات. يُظهر التقرير أن الأشخاص المتأثرين بهذه القرارات لا يُعلمون بوضوح أن الذكاء الاصطناعي قد تم استخدامه في معالجة قضاياهم.

وتدعو الحملة الدولية لحقوق المهاجرين إلى سحب هذه الأداة، معتبرة أنها “تقنية تُستخدم لجعل القسوة أكثر فعالية”. وأبدى منتقدون مخاوف من أن المسؤولين قد يكتفون بالموافقة الآلية على قرارات الترحيل بدلاً من إجراء مراجعة حقيقية، حيث يتطلب رفض القرار الآلي تبريرًا مكتوبًا من المسؤول، بينما يكفي الضغط على زر للموافقة عليه.

وتقول فيزا قريشي، الرئيسة التنفيذية لشبكة حقوق المهاجرين، إن كمية البيانات المستخدمة في النظام، بما في ذلك بيانات عن الصحة والأصل العرقي، قد تزيد من احتمالية التمييز العنصري وتزيد من انتهاك خصوصية المهاجرين.

من جانبه، يشير جوناه ميندلسون، المحامي في الحملة الدولية للخصوصية، إلى أن الأداة قد تؤثر على حياة مئات الآلاف من الأشخاص الذين قد لا يدركون دور الذكاء الاصطناعي في قرارات قضاياهم، مما يعرضهم لخطر تنفيذ قرارات غير عادلة.

وتزايدت الدعوات لتطبيق الشفافية والمحاسبة في استخدام الحكومة للذكاء الاصطناعي، حيث قالت مادلين سامبشن، مدير مرصد الهجرة بجامعة أكسفورد، إن الذكاء الاصطناعي قد يكون وسيلة لتحسين القرارات، ولكن هذا يتطلب شفافية أكبر لمعرفة تأثيره.

وأشارت سامبشن إلى أن الأولوية يجب أن تكون لحالات يمكن التعامل معها بسرعة لضمان عدم احتجاز الأشخاص في أماكن غير مناسبة لفترات طويلة.

ووفقًا للوثائق، فإن الأداة تعمل على تقييم مدى “قابلية الترحيل” ودرجة الخطر الذي يشكله المخالفون، كما تساعد في أتمتة عملية تحديد القضايا وترتيب أولوياتها. ويأتي هذا وسط مناقشة مشروع قانون جديد يسمح بقرارات مؤتمتة بشرط أن يتمكن الأفراد من الاعتراض عليها وطلب تدخل بشري.

ويعكس هذا التقرير قلقًا متزايدًا بشأن كيفية استخدام الذكاء الاصطناعي في المجالات الحساسة، مثل الهجرة، ويؤكد على ضرورة حماية حقوق الإنسان وخصوصية الأفراد المتأثرين.

 

المصدر: The Guardian

A Zeno.FM Station
زر الذهاب إلى الأعلى

يرجى السماح بعرض الإعلانات

يرجى السماح بعرض الإعلانات على موقعنا الإلكتروني يبدو أنك تستخدم أداة لحظر الإعلانات. نحن نعتمد على الإعلانات كمصدر تمويل لموقعنا الإلكتروني.