Intelligence artificielle et droits humains : où en sommes-nous? Une perspective des cadres canadien et européen

Blogue Un seul monde, Lola Weil, 10 juin 2024

Nous le constatons tous, l’intelligence artificielle (IA) façonne aujourd’hui le monde du digital et du numérique. Plus encore, elle a rapidement su s’implanter à travers ces dernières années dans les sphères sociale, économique, politique, culturelle, etc. Dans de nombreux secteurs d’activités passant de l’industrie au numérique, les systèmes d’intelligence artificielle (SIA) sont vus comme un gage de productivité et d’objectivité. Aujourd’hui, les entreprises ont notamment recours à cette technologie dans le recrutement, faisant de l’IA un outil algorithmique capable, par exemple, de trier les curriculums vitae avec une efficacité certaine.

Mais entre les biais, les préjugés et les erreurs de conceptions, nombreuses sont les personnes qui doutent de cette nouvelle technologie, de son éthique incertaine et se posent des questions quant aux instruments juridiques nés ou à naître qui protègeront les droits humains. Approfondir la coopération et la solidarité au sein de la communauté internationale est aujourd’hui plus que nécessaire, et permettra à la fois un meilleur accès au développement et au progrès technologique, ainsi qu’une utilisation plus équitable et durable.

En se référant à l’exemple du recrutement par l’IA, il est important que les algorithmes d’apprentissage utilisés pour arriver à une décision d’embauche permettent une juste égalité des chances face à l’emploi. De même, érigé en tant que droit fondamental tant au Canada qu’au sein de l’Union européenne, le droit à l’égalité doit être garanti dans toute utilisation de l’IA. Bien que chacun de ces pays disposent d’instruments juridiques protégeant nos droits (passant de la Convention européenne des droits de l’homme et des libertés fondamentales de 1953 aux instruments nationaux et provinciaux comme la Charte canadienne des droits et des libertés ou la Charte québécoise des droits et libertés de la personne), l’IA constitue une nouvelle technologie complexe qui bouscule les cadres juridiques existants. Si ce texte présente surtout les cadres européen et canadien autour de l’IA, cet enjeu de régulation s’avère transversal et concerne ainsi l’ensemble du monde. En impactant directement les enjeux de développement et de coopération internationale – comme l’accès au développement technologique et à la capacité d’en bénéficier à travers le monde, le respect de la diversité humaine ou encore le partage des ressources et des connaissances par exemple, il est nécessaire et urgent de réfléchir à un cadre juridique spécifique à cette technologie pour se diriger au plus vite vers un environnement sûr, responsable, éthique et humain.

Quel cadre juridique pour l’IA ? Entre l’UE et le Canada

C’est une des raisons pour lesquelles nos pays respectifs sont aujourd’hui au milieu d’une course visant à encadrer l’IA. Dans un premier temps, ces derniers ont tenté d’établir des guides afin d’utiliser l’IA de manière responsable. C’est notamment le cas du Canada avec la Loi sur l’intelligence artificielle et les données (LIAD). Constituant la troisième partie du projet de loi C-27, lequel explicite une charte du Numérique et modernise la loi canadienne en matière de protection des données, la LIAD a pour objectif de renforcer la transparence, de responsabiliser davantage les employeurs ayant recours aux algorithmes d’apprentissage dans le secteur privé et de s’intéresser à l’impact de ces algorithmes sur les employés et ceux qui en font usage. Ce projet de loi vise l’établissement de règles encadrant l’utilisation des systèmes d’IA et la mise en place d’exigences qui seraient à respecter par les entreprises utilisant ces SIA à « incidence élevée », suivant une logique de risque. Au Canada, cet instrument reste la 1ère avancée en matière d’encadrement de l’IA mais il demeure encore incomplet. En outre, c’est l’Union européenne qui se positionne en première place dans cette course.  Ayant commencé avec le Règlement général sur la protection des données (RGPD) en 2018, ce dernier visait à harmoniser les lois nationales de protection des données au sein de l’UE et s’intéressait aux biais potentiels issus de l’IA. Mais s’il s’est avéré pertinent pour encadrer l’IA, son caractère non contraignant pour les États et les entreprises laissait encore une trop grande marge de manœuvre suscitant un risque pour nos droits. Plus récemment, le Conseil de l’Europe a adopté le premier traité international juridiquement contraignant sur l’IA en mars 2024 à contrario de l’exemple canadien. L’EU IA Act souhaite ainsi représenter un instrument respectant les droits de l’homme, la démocratie et l’État de droit. Il est soutenu par des pays de différents continents unis par des intérêts communs à bénéficier des avantages de l’IA tout en protégeant leurs citoyens et réduisant les risques liés à son utilisation. Le traité s’appliquera à toutes les phases du cycle de vie des SIA, aussi bien à l’embauche que dans les divers secteurs d’activités, et s’étendra aussi bien aux pouvoirs publics, qu’aux entreprises et acteurs privés. Un examen attentif est imposé de toutes les possibles conséquences négatives liées à son utilisation. Il est donc attendu que les acteurs en faute soient tenus par la reddition de compte et se responsabilisent en cas d’impacts négatifs. De plus, les SIA doivent également respecter les principes d’égalité, de non-discrimination et de protection de la vie privée. Une nécessité de transparence dans l’utilisation de l’IA et dans l’explicabilité des décisions qu’elle rend est primordiale. Enfin, toutes les victimes de violations des droits humains dans le cadre de l’utilisation de SIA devront disposer de voies de recours et des garanties procédurales. Afin de s’assurer que les États membres respectent la mise en œuvre de l’« EU artificial intelligence Act », la Commission européenne a créé un nouveau régulateur : l’Office européen de l’IA (ou « Bureau de l’IA). Ce dernier obtient ainsi la charge de contrôler, superviser et appliquer les exigences de la loi sur l’IA au sein du territoire de l’Union. De même, il devra diriger l’UE dans la coopération internationale sur l’IA, notamment entre la Commission européenne et les scientifiques indépendants, et contribuer à un environnement où l’IA respecte la dignité humaine et les droits humains.

Un besoin urgent d’harmonisation internationale autour de l’IA

Même si l’UE est aujourd’hui la première à avoir créé un instrument juridique contraignant relatif à l’IA, d’autres pays se placent également sur cette voie. Bien que nous assistions aux premiers encadrements de l’IA, celle-ci soulève d’autres enjeux menaçant les droits humains. A titre illustratif, le développement de l’IA s’inscrit dans un contexte où les inégalités ne cessent de croître. Si ces disparités s’observent au sein même des pays (par exemple, le Canada montre un fossé algorithmique conséquent, lequel s’avère plus important pour les régions rurales), elles sont exacerbées à l’échelle internationale et les pays du Sud global restent les plus touchés. Il s’agirait par conséquent de favoriser un partage des ressources et de connaissance plus efficace, sans toutefois renforcer les risques de dépendance technologique. D’autre part, si l’IA pose également des défis relatifs à la diversité culturelle ou linguistique, plusieurs initiatives tendent à des tentatives de préservation et de revitalisation. Plus encore, l’utilisation de l’IA dans le domaine militaire soulève de fortes inquiétudes. L’absence d’un cadre réglementaire strict laisserait une trop grande marge de manœuvre pour certains pays, tel que la Chine qui, investissant financièrement dans la recherche et le développement d’IA militaire se lancent dans une course à l’armement. C’est à la marge des conflits actuels que le secrétaire général des Nations Unies, Antonio Guterres, a d’ailleurs fortement recommandé de créer d’ici 2026 un instrument contraignant interdisant les armes autonomes fonctionnant sans supervision humaine. En accord avec les recommandations du Comité international de la Croix-Rouge, les États doivent s’accorder au niveau international sur les limites à imposer aux systèmes d’IA militaire autonome pour assurer la protection des civils, le respect du droit international humanitaire et une certaine éthique – notamment sur la question de la présence humaine comme dernier décisionnaire. Malgré la réalité concurrentielle liée au développement et à l’utilisation des SIA, pourrons-nous voir la naissance d’une convention multilatérale dans ces prochaines années ?

Conclusion

Alors que la logique de marché concurrentielle et de course au développement (et à l’armement) semble illustrer une réalité accompagnant le développement et l’utilisation de l’IA, l’Assemblée générale des Nations unies a toutefois réussi à adopter une résolution historique sur l’IA, le 21 mars 2024 dernier, à l’unanimité des 193 membres. Cette dernière vise des SIA sûrs, sécurisés et dignes de confiance, dans le respect, la protection et la promotion des droits de l’homme, et visant la réalisation des objectifs de développement durable. Nous serons donc, au cours de ces prochaines années, aux premières loges de l’élaboration du cadre juridique de l’IA, mais aussi de son utilisation en faveur des droits humains. Cela pourra par exemple se refléter par l’utilisation de l’IA comme un outil d’inclusion dans la représentation des minorités.


Lola Weil, étudiante à la maîtrise en propriété intellectuelle et droit des affaires du numérique conjointe Paris-Saclay et UQAM

Partenaires

Banque ScotiaMinistère des Relations internationales et de la Francophonie | Québec Faculté de science politique et de droit | UQAM

Institut d’études internationales de Montréal (IEIM)

Adresse civique

Institut d’études internationales de Montréal
Université du Québec à Montréal
400, rue Sainte-Catherine Est
Bureau A-1540, Pavillon Hubert-Aquin
Montréal (Québec) H2L 3C5

* Voir le plan du campus

Téléphone 514 987-3667
Courriel ieim@uqam.ca
UQAM www.uqam.ca

Un institut montréalais tourné vers le monde, depuis 20 ans!

— Bernard Derome, Président

Créé en 2002, l’Institut d’études internationales de Montréal (IEIM) est un pôle d’excellence bien ancré dans la communauté montréalaise. Les activités de l’IEIM et de ses constituantes mobilisent tant le milieu académique, les représentants gouvernementaux, le corps diplomatique que les citoyens intéressés par les enjeux internationaux. Par son réseau de partenaires privés, publics et institutionnels, l’Institut participe ainsi au développement de la « diplomatie du savoir » et contribue au choix de politiques publiques aux plans municipal, national et international.

Ma collaboration avec l’IEIM s’inscrit directement dans le souci que j’ai toujours eu de livrer au public une information pertinente et de haute qualité. Elle s’inscrit également au regard de la richesse des travaux de ses membres et de son réel engagement à diffuser, auprès de la population, des connaissances susceptibles de l’aider à mieux comprendre les grands enjeux internationaux d’aujourd’hui. Par mon engagement direct dans ses activités publiques depuis 2010, j’espère contribuer à son essor, et je suis fier de m’associer à une équipe aussi dynamique et impliquée que celle de l’Institut.

Bernard Derome

À l’occasion de la rentrée universitaire 2023-2024, le président de l’Institut d’études internationales de Montréal (IEIM) s’est prononcé sur la situation géopolitique mondiale.

« L’ordre mondial, tel que l’on l’a connu depuis la fin de la guerre froide, est complètement bousculé avec des rivalités exacerbées entre les grandes puissances et des impérialismes démesurés. »

– Bernard Derome

Inscrivez-vous au Bulletin hebdomadaire!


Contribuez à l’essor et à la mission de l’Institut !