
L’intelligence artificielle dans la gestion des demandes d’asile : outil humanitaire ou danger éthique ?
Blogue Un seul monde, Océane Leroux-Maurais, 10 février 2025
Face à l’intensification des flux migratoires, l’intelligence artificielle (IA) s’impose comme une solution prometteuse pour alléger les lourdeurs administratives liées aux demandes d’asile. Ses partisans soulignent son potentiel pour accélérer les procédures et renforcer la cohésion sociale. Pourtant, des organisations comme Amnesty International mettent en garde contre les dérives possibles, notamment le risque d’accentuer les inégalités et les discriminations. Mais qu’en est-il réellement ? L’IA peut-elle offrir une réponse éthique et équitable aux défis migratoires actuels ?
Un outil pour objectiver les décisions ?
Les processus traditionnels d’évaluation des demandes d’asile restent souvent influencés par des biais humains. Par exemple, des comportements comme baisser les yeux ou hésiter, interprétés différemment selon les cultures, peuvent affecter les décisions. Si dans certaines sociétés, détourner le regard est un signe de respect, dans d’autres comme en Occident, cela peut être perçu comme un manque de sincérité.
Dans ce contexte, l’IA offre un potentiel pour standardiser et objectiver les évaluations. Elle peut analyser des données volumineuses de manière systématique, réduisant ainsi les biais liés aux perceptions individuelles. Des outils comme le Displacement Tracking Matrix de l’Organisation internationale pour les migrations (OIM) ou le Jetson Engine du Haut-Commissariat aux réfugiés (HCR) permettent de prévoir les mouvements de populations en temps réel, facilitant une planification humanitaire plus adaptée. Ces systèmes offrent une analyse approfondie des informations sur les pays d’origine des réfugiés, intégrant des données économiques, géographiques et politiques, afin de prévoir les migrations et ainsi mieux préparer les pays d’accueil.
Des procédures administratives plus rapides
L’IA pourrait également jouer un rôle crucial dans l’accélération des procédures, souvent marquées par de longs délais administratifs, qui, dans de nombreux pays, peuvent durer des mois, voire des années. En automatisant certaines étapes administratives, l’IA permet de décharger les examinateur-rices et d’accélérer les prises de décisions. Par exemple, aux Pays-Bas, le système Casematcher analyse les similitudes entre les récits des demandeur-euses d’asile afin d’harmoniser les décisions et d’identifier des tendances dans les motifs de persécution.
Un défi face à la complexité des récits humains
Malgré ses avantages, l’IA présente des limites importantes lorsqu’il s’agit d’évaluer des récits humains complexes. Les algorithmes, conçus pour analyser des données structurées, peinent à interpréter les nuances culturelles, émotionnelles et contextuelles des témoignages. Par exemple, l’analyse de la « crainte fondée d’être persécuté-e » repose sur une compréhension simultanée des peurs subjectives et des risques objectifs de persécution. Cette appréciation, ancrée dans une compréhension humaine des émotions et des dynamiques sociopolitiques, reste difficile à modéliser par l’IA.
L’IA n’est pas certes pas à l’abri de commettre des erreurs. Des incohérences dans les témoignages – dues à des traumatismes, des barrières linguistiques ou un manque de documentation, par exemple – risquent de discréditer systématiquement les récits sans prendre en compte les circonstances atténuantes. Cette absence de flexibilité et de sens critique limite la pertinence de l’IA pour des décisions complexes où la subjectivité joue un rôle central.
Les biais algorithmiques, un risque de discrimination amplifiée
Les systèmes d’intelligence artificielle (IA), entraînés à partir de données fournies par des humains, tendent à reproduire des préjugés institutionnels, culturels ou politiques. De plus, comme l’IA apprend en permanence à partir de ces mêmes données, il existe un risque sérieux qu’elle amplifie ces biais à travers ses algorithmes. Par exemple, des études ont révélé que certains systèmes technologiques, comme Face++ et Microsoft AI, interprétaient systématiquement les expressions des personnes à la peau noire comme étant plus colériques ou méprisantes que celles des personnes à la peau claire. Un autre cas marquant est celui du système de recrutement développé par Amazon en 2017, qui avait appris à exclure les candidatures féminines en raison des biais présents dans ses données d’entraînement, largement dominées par des profils masculins.
Dans le contexte des contrôles migratoires, des technologies controversées comme iBorderCtrl, testées dans l’Union européenne entre 2016 et 2019, ont été vivement critiquées par des ONG, des universitaires et des parlementaires européens. Ces systèmes, censés détecter les mensonges, étaient accusés de discriminer selon le genre, l’âge ou la couleur de peau, compromettant l’équité des décisions et renforçant les discriminations systémiques.
Un danger pour le respect des droits fondamentaux
Les demandeur-euses d’asile se retrouvent souvent dans une situation de vulnérabilité accrue face à l’utilisation de l’IA dans la gestion de leurs demandes. Iels manquent fréquemment d’informations pour comprendre les enjeux liés à ces technologies et disposent rarement des moyens ou des ressources nécessaires pour contester leur utilisation dans le traitement de leur dossier. Par ailleurs, ces technologies sont souvent déployées sans régulation adéquate, risquant de transformer les demandeur-euses d’asile en « cobayes » pour tester de nouvelles technologies.
Cette situation pose des risques significatifs pour les droits fondamentaux des réfugié-es, notamment si les données sensibles collectées sont mal utilisées. Le Partenariat mondial sur l’IA a recensé entre 2017 et 2022 plus de 1 200 incidents présentant un risque pour la sécurité et l’équité.
Ces risques ont des impacts réels sur la vie des demandeur-euses d’asile comme le montre les protestations dans un camp de réfugié-es au Bangladesh, ou les Rohingyas s’opposaient au projet du Haut-Commissariat des Nations unies pour les réfugiés (UNHCR) de collecter leurs données, car celles-ci pourraient être partagées avec le Myanmar. Si leurs données biométriques devaient tomber entre de mauvaises mains, le risque de persécution et de discrimination pourrait réellement s’accroître, exposant ces réfugié-es à des dangers graves, notamment en cas de cessation de la protection internationale précédemment accordée.
Le Canada face aux défis de l’IA
Depuis 2014, le Canada utilise des technologies de prise de décision automatisée, de reconnaissance faciale et, à titre expérimental, des détecteurs de mensonge IA pour gérer les demandes de visas et renforcer la sécurité aux frontières, bien que ces outils présentent des biais affectant disproportionnellement les groupes marginalisés.
Face aux risques liés à ces avancées technologiques rapides, le gouvernement canadien a adopté, le 1er avril 2020, la Directive sur la prise de décision automatisée. Cette directive encadre l’utilisation de l’intelligence artificielle par les ministères fédéraux afin de garantir la transparence, la responsabilité, la légalité et l’équité procédurale dans les décisions administratives. Dans ce contexte, le gouvernement poursuit ses réflexions sur ses prises de décisions quant aux modalités d’intégration de l’IA dans ses processus, notamment dans les domaines de l’immigration, des réfugié-es et des demandeur-euses d’asile.
Vers une IA plus éthique et inclusive ?
Il va sans dire que l’éthique derrière l’utilisation de l’IA dans la gestion des demandes d’asile repose sur la capacité des êtres humains à l’utiliser comme un outil d’inclusion sociale réelle. Un pas est déjà fait en ce sens avec le Manifeste AI Trust d’Arm, publié en 2019, qui présente un ensemble de principes autour de l’éthique de l’IA. Plus récemment, le 13 mars 2024, le Parlement européen a adopté l‘Acte sur l’intelligence artificielle (IA) de l’Union européenne, un cadre réglementaire qui promeut une utilisation sécuritaire et non discriminatoire des technologies d’IA.
Ces cadres illustrent un pas intéressant vers une IA plus éthique et inclusive, mais devront être accompagnés d’actions concrètes pour que de réels changements s’opèrent. Pour que l’IA devienne un outil véritablement utile et éthique dans le traitement des demandes d’asile, elle doit être intégrée dans un cadre strictement centré sur les droits humains. Cela implique de privilégier une approche inclusive dès la conception, par une participation plus directe des populations concernées dans la création des outils technologiques. De même, cela concerne une gestion rigoureuse des données, le respect de la vie privée et la lutte proactive contre les biais algorithmiques. Enfin, la promotion d’initiatives dirigées par des réfugié-es, en partenariat avec des organisations humanitaires et des expert-es en technologie, pourrait favoriser que ces outils soient réellement pensés et utilisés au service des demandeur-euses d’asile, dans le respect de leurs droits fondamentaux.
Plusieurs auteur-es proposent d’ailleurs de s’en tenir à une approche hybride pour le futur, combinant l’intelligence humaine et artificielle. Alors que l’IA se distingue par sa capacité à traiter rapidement et efficacement de vastes quantités de données, l’intelligence humaine offre une compréhension approfondie des contextes, une flexibilité d’adaptation et un jugement éthique crucial pour évaluer les impacts des décisions. Une telle collaboration, si bien équilibrée, tirerait parti des atouts de chaque système : la précision et l’efficacité de l’IA, alliées à la sensibilité contextuelle et à la réflexion critique de l’humain.
Autrice : Océane Leroux-Maurais, étudiante au certificat en immigration et relations interethniques à l’UQAM