L’intelligence artificielle dans la gestion des demandes d’asile : outil humanitaire ou danger éthique ?

Blogue Un seul monde, Océane Leroux-Maurais, 10 février 2025

Face à l’intensification des flux migratoires, l’intelligence artificielle (IA) s’impose comme une solution prometteuse pour alléger les lourdeurs administratives liées aux demandes d’asile. Ses partisans soulignent son potentiel pour accélérer les procédures et renforcer la cohésion sociale. Pourtant, des organisations comme Amnesty International mettent en garde contre les dérives possibles, notamment le risque d’accentuer les inégalités et les discriminations. Mais qu’en est-il réellement ? L’IA peut-elle offrir une réponse éthique et équitable aux défis migratoires actuels ? 

Un outil pour objectiver les décisions ? 

Les processus traditionnels d’évaluation des demandes d’asile restent souvent influencés par des biais humains. Par exemple, des comportements comme baisser les yeux ou hésiter, interprétés différemment selon les cultures, peuvent affecter les décisions. Si dans certaines sociétés, détourner le regard est un signe de respect, dans d’autres comme en Occident, cela peut être perçu comme un manque de sincérité. 

Dans ce contexte, l’IA offre un potentiel pour standardiser et objectiver les évaluations. Elle peut analyser des données volumineuses de manière systématique, réduisant ainsi les biais liés aux perceptions individuelles. Des outils comme le Displacement Tracking Matrix de l’Organisation internationale pour les migrations (OIM) ou le Jetson Engine du Haut-Commissariat aux réfugiés (HCR) permettent de prévoir les mouvements de populations en temps réel, facilitant une planification humanitaire plus adaptée. Ces systèmes offrent une analyse approfondie des informations sur les pays d’origine des réfugiés, intégrant des données économiques, géographiques et politiques, afin de prévoir les migrations et ainsi mieux préparer les pays d’accueil. 

Des procédures administratives plus rapides 

L’IA pourrait également jouer un rôle crucial dans l’accélération des procédures, souvent marquées par de longs délais administratifs, qui, dans de nombreux pays, peuvent durer des mois, voire des années. En automatisant certaines étapes administratives, l’IA permet de décharger les examinateur-rices et d’accélérer les prises de décisions. Par exemple, aux Pays-Bas, le système Casematcher analyse les similitudes entre les récits des demandeur-euses d’asile afin d’harmoniser les décisions et d’identifier des tendances dans les motifs de persécution.  

Un défi face à la complexité des récits humains 

Malgré ses avantages, l’IA présente des limites importantes lorsqu’il s’agit d’évaluer des récits humains complexes. Les algorithmes, conçus pour analyser des données structurées, peinent à interpréter les nuances culturelles, émotionnelles et contextuelles des témoignages. Par exemple, l’analyse de la « crainte fondée d’être persécuté-e » repose sur une compréhension simultanée des peurs subjectives et des risques objectifs de persécution. Cette appréciation, ancrée dans une compréhension humaine des émotions et des dynamiques sociopolitiques, reste difficile à modéliser par l’IA. 

L’IA n’est pas certes pas à l’abri de commettre des erreurs. Des incohérences dans les témoignages – dues à des traumatismes, des barrières linguistiques ou un manque de documentation, par exemple – risquent de discréditer systématiquement les récits sans prendre en compte les circonstances atténuantes. Cette absence de flexibilité et de sens critique limite la pertinence de l’IA pour des décisions complexes où la subjectivité joue un rôle central. 

Les biais algorithmiques, un risque de discrimination amplifiée  

Les systèmes d’intelligence artificielle (IA), entraînés à partir de données fournies par des humains, tendent à reproduire des préjugés institutionnels, culturels ou politiques. De plus, comme l’IA apprend en permanence à partir de ces mêmes données, il existe un risque sérieux qu’elle amplifie ces biais à travers ses algorithmes. Par exemple, des études ont révélé que certains systèmes technologiques, comme Face++ et Microsoft AI, interprétaient systématiquement les expressions des personnes à la peau noire comme étant plus colériques ou méprisantes que celles des personnes à la peau claire. Un autre cas marquant est celui du système de recrutement développé par Amazon en 2017, qui avait appris à exclure les candidatures féminines en raison des biais présents dans ses données d’entraînement, largement dominées par des profils masculins. 

Dans le contexte des contrôles migratoires, des technologies controversées comme iBorderCtrl, testées dans l’Union européenne entre 2016 et 2019, ont été vivement critiquées par des ONG, des universitaires et des parlementaires européens. Ces systèmes, censés détecter les mensonges, étaient accusés de discriminer selon le genre, l’âge ou la couleur de peau, compromettant l’équité des décisions et renforçant les discriminations systémiques. 

Un danger pour le respect des droits fondamentaux 

Les demandeur-euses d’asile se retrouvent souvent dans une situation de vulnérabilité accrue face à l’utilisation de l’IA dans la gestion de leurs demandes. Iels manquent fréquemment d’informations pour comprendre les enjeux liés à ces technologies et disposent rarement des moyens ou des ressources nécessaires pour contester leur utilisation dans le traitement de leur dossier. Par ailleurs, ces technologies sont souvent déployées sans régulation adéquate, risquant de transformer les demandeur-euses d’asile en « cobayes » pour tester de nouvelles technologies.  

Cette situation pose des risques significatifs pour les droits fondamentaux des réfugié-es, notamment si les données sensibles collectées sont mal utilisées. Le Partenariat mondial sur l’IA a recensé entre 2017 et 2022 plus de 1 200 incidents présentant un risque pour la sécurité et l’équité.  

Ces risques ont des impacts réels sur la vie des demandeur-euses d’asile comme le montre les protestations dans un camp de réfugié-es au Bangladesh, ou les Rohingyas s’opposaient au projet du Haut-Commissariat des Nations unies pour les réfugiés (UNHCR) de collecter leurs données, car celles-ci pourraient être partagées avec le Myanmar. Si leurs données biométriques devaient tomber entre de mauvaises mains, le risque de persécution et de discrimination pourrait réellement s’accroître, exposant ces réfugié-es à des dangers graves, notamment en cas de cessation de la protection internationale précédemment accordée. 

Le Canada face aux défis de l’IA 

Depuis 2014, le Canada utilise des technologies de prise de décision automatisée, de reconnaissance faciale et, à titre expérimental, des détecteurs de mensonge IA pour gérer les demandes de visas et renforcer la sécurité aux frontières, bien que ces outils présentent des biais affectant disproportionnellement les groupes marginalisés.  

Face aux risques liés à ces avancées technologiques rapides, le gouvernement canadien a adopté, le 1er avril 2020, la Directive sur la prise de décision automatisée. Cette directive encadre l’utilisation de l’intelligence artificielle par les ministères fédéraux afin de garantir la transparence, la responsabilité, la légalité et l’équité procédurale dans les décisions administratives. Dans ce contexte, le gouvernement poursuit ses réflexions sur ses prises de décisions quant aux modalités d’intégration de l’IA dans ses processus, notamment dans les domaines de l’immigration, des réfugié-es et des demandeur-euses d’asile. 

Vers une IA plus éthique et inclusive ? 

Il va sans dire que l’éthique derrière l’utilisation de l’IA dans la gestion des demandes d’asile repose sur la capacité des êtres humains à l’utiliser comme un outil d’inclusion sociale réelle. Un pas est déjà fait en ce sens avec le Manifeste AI Trust d’Arm, publié en 2019, qui présente un ensemble de principes autour de l’éthique de l’IA. Plus récemment, le 13 mars 2024, le Parlement européen a adopté l‘Acte sur l’intelligence artificielle (IA) de l’Union européenne, un cadre réglementaire qui promeut une utilisation sécuritaire et non discriminatoire des technologies d’IA.  

Ces cadres illustrent un pas intéressant vers une IA plus éthique et inclusive, mais devront être accompagnés d’actions concrètes pour que de réels changements s’opèrent. Pour que l’IA devienne un outil véritablement utile et éthique dans le traitement des demandes d’asile, elle doit être intégrée dans un cadre strictement centré sur les droits humains. Cela implique de privilégier une approche inclusive dès la conception, par une participation plus directe des populations concernées dans la création des outils technologiques. De même, cela concerne une gestion rigoureuse des données, le respect de la vie privée et la lutte proactive contre les biais algorithmiques. Enfin, la promotion d’initiatives dirigées par des réfugié-es, en partenariat avec des organisations humanitaires et des expert-es en technologie, pourrait favoriser que ces outils soient réellement pensés et utilisés au service des demandeur-euses d’asile, dans le respect de leurs droits fondamentaux.

Plusieurs auteur-es proposent d’ailleurs de s’en tenir à une approche hybride pour le futur, combinant l’intelligence humaine et artificielle. Alors que l’IA se distingue par sa capacité à traiter rapidement et efficacement de vastes quantités de données, l’intelligence humaine offre une compréhension approfondie des contextes, une flexibilité d’adaptation et un jugement éthique crucial pour évaluer les impacts des décisions. Une telle collaboration, si bien équilibrée, tirerait parti des atouts de chaque système : la précision et l’efficacité de l’IA, alliées à la sensibilité contextuelle et à la réflexion critique de l’humain.  


AutriceOcéane Leroux-Maurais, étudiante au certificat en immigration et relations interethniques à l’UQAM 

Partenaires

Banque ScotiaMinistère des Relations internationales et de la Francophonie | Québec Faculté de science politique et de droit | UQAM

Institut d’études internationales de Montréal (IEIM)

Adresse civique

Institut d’études internationales de Montréal
Université du Québec à Montréal
400, rue Sainte-Catherine Est
Bureau A-1540, Pavillon Hubert-Aquin
Montréal (Québec) H2L 3C5

* Voir le plan du campus

Téléphone 514 987-3667
Courriel ieim@uqam.ca
UQAM www.uqam.ca

Un institut montréalais tourné vers le monde, depuis 20 ans!

— Bernard Derome, Président

Créé en 2002, l’Institut d’études internationales de Montréal (IEIM) est un pôle d’excellence bien ancré dans la communauté montréalaise. Les activités de l’IEIM et de ses constituantes mobilisent tant le milieu académique, les représentants gouvernementaux, le corps diplomatique que les citoyens intéressés par les enjeux internationaux. Par son réseau de partenaires privés, publics et institutionnels, l’Institut participe ainsi au développement de la « diplomatie du savoir » et contribue au choix de politiques publiques aux plans municipal, national et international.

Ma collaboration avec l’IEIM s’inscrit directement dans le souci que j’ai toujours eu de livrer au public une information pertinente et de haute qualité. Elle s’inscrit également au regard de la richesse des travaux de ses membres et de son réel engagement à diffuser, auprès de la population, des connaissances susceptibles de l’aider à mieux comprendre les grands enjeux internationaux d’aujourd’hui. Par mon engagement direct dans ses activités publiques depuis 2010, j’espère contribuer à son essor, et je suis fier de m’associer à une équipe aussi dynamique et impliquée que celle de l’Institut.

Bernard Derome

« L’ordre mondial, tel que l’on l’a connu depuis la fin de la guerre froide, est complètement bousculé avec des rivalités exacerbées entre les grandes puissances et des impérialismes démesurés. »

– Bernard Derome

Inscrivez-vous au Bulletin hebdomadaire!


Contribuez à l’essor et à la mission de l’Institut !