![](https://ieim.uqam.ca/wp-content/uploads/2024/09/Banniere-site-IEIM-2024-2025-1024-x-538-px.png)
Le « do no harm » humanitaire à l’ère de l’information
Cassie Seo (anciennement Cheffe de l’Unité de transformation numérique, Norwegian Refugee Council), 28 novembre 2022
Aujourd’hui, de plus en plus d’opportunités liées aux technologies nouvelles et émergentes sont intégrées dans l’action humanitaire, que ce soit l’intelligence artificielle, l’approche blockchain, ou les transferts monétaires numériques. Ces technologies s’avèrent prometteuses pour l’amélioration des prestations humanitaires, mais elles sont aussi porteuses d’un changement de paradigme d’intervention. Ainsi, les avantages inexploités de la technologie dans l’action humanitaire sont séduisants, car celle-ci facilite l’évolutivité, ou l’expansion des actions à partir d’un projet pilote. Elles favorisent également une meilleure transparence, grâce entre autres à la blockchain, une technologie de stockage et de partage d’informations accessible à une multitude d’acteurs humanitaires. L’impact d’un tel changement est à la fois inévitable et indéniable, comme en témoignent les processus de transformation numérique et de gestion du changement de nombreuses organisations d’aide internationale.
Cependant, l’impact de la technologie dans notre société serait mieux résumé en tant qu’arme à double tranchant. Le principe humanitaire de « ne pas nuire » (« do no harm ») est bien connu par les praticiens et praticiennes humanitaires, mais qu’en est-il de l’usage des technologies dans un milieu où les ressources sont notoirement rares ? En contexte de crise, il s’avère que les populations déjà vulnérables sont aussi exposées aux risques numériques. De ce fait, de nombreuses considérations et contraintes s’imposent lorsque nous prévoyons intégrer la technologie aux interventions humanitaires.
Il convient d’abord de reconnaître que la technologie a un certain degré d’agentivité au-delà de l’intention de l’exécutant.e. Elle n’est jamais neutre, et peut de manière non intentionnelle causer du tort aux individus visés. Ainsi, comment pouvons-nous atténuer et réduire les risques de préjudice involontaire, occasionnés par l’utilisation de la technologie en action humanitaire ? Les paragraphes qui suivent présenteront certaines considérations à intégrer, et ce, dès la conception des interventions.
La sécurité des produits
Bien qu’il existe des directives et des réglementations solides en matière de sécurité pour les produits de consommation, la plupart d’entre elles ciblent les « biens tangibles » ou les produits physiques. Le concept de sécurité est cependant débattu en ce qui a trait aux produits et services numériques. On constate d’ailleurs que les plus grandes entreprises technologiques internationales (communément appelées « Big tech ») ont tendance à prioriser le profit avant la sécurité des consommateurs et consommatrices. Bon nombre de ces entreprises proposent des outils ou encore des politiques internes pour atténuer les dommages connus et prévenir les risques inconnus.
Néanmoins, l’usage de tels outils et politiques qui sont développés pour le secteur privé n’est pas forcément pertinent ni adapté au secteur de l’humanitaire, pour lequel les principes opérationnels sont différents. En un premier temps, on peut donc tenter, en phase de conception d’intervention, de s’imaginer le pire scénario lié à l’usage de la technologie en faisant appel au concept de persona non grata (un intrus malicieux). Cela permettra de mieux cartographier les risques et d’élaborer différents scénarios plausibles, une approche qui est d’ailleurs déjà employée en humanitaire dans des contextes volatiles.
Ensuite, il convient de centrer la conception de la prestation sur ses utilisateurs et utilisatrices. Dans le secteur de l’information, on fait appel à une perspective systémique, dans lequel on intègre le contexte et les besoins des utilisateurs et utilisatrices (à savoir l’écosystème). Il est dès lors essentiel d’apprendre à connaître les individus visés. Cela permet de cerner leurs besoins fondamentaux et par conséquent, de définir les caractéristiques du produit ou du service qui leur sera proposé.
Cependant, la conception et le déploiement des technologies ne sont pas toujours une affaire simple dans un contexte d’urgence. Les praticiens et praticiennes doivent envisager la possibilité que les technologies soient utilisées à mauvais escient, que ce soit de manière intentionnelle ou non. La mauvaise utilisation de produits ou services technologiques peut occasionner des dommages pour l’utilisateur ou l’utilisatrice, mais elle peut également causer des pertes ou préjudices pour autrui. L’organisation et ses prestations humanitaires peuvent également subir des conséquences liées à une mauvaise utilisation.
Par exemple, la protection d’informations sensibles peut être compromise par des erreurs d’attribution de rôles et de permissions d’accès aux plateformes de gestion numériques. Sans politiques internes ou contrôles en matière de reproduction et de partage d’informations, des listes qui incluent le nom et les coordonnées de prestataires d’aide peuvent être mises en circulation sans discernement. Elles risqueraient ainsi d’aboutir entre les mains de groupes qui ne devraient pas y avoir accès. Ainsi, l’intégration d’une réflexion sur les pires scénarios et le concept de persona non grata, en ayant recours à la pensée défensive, peut aider à repérer ce genre de risque d’abus intentionnel ou non intentionnel, permettant alors de mitiger d’éventuels problèmes.
Revoir les hypothèses clés du système technologique
Dans un contexte d’urgence, la protection juridique et technique (dont la manière de supprimer certaines données, de les traiter ou de les partager) peut être difficile à appliquer. Pis encore, des plateformes technologiques pourraient subir une « arsenalisation » incitant à la violence, diffuser de fausses informations ou même perpétuer des dynamiques impérialistes. Il faut donc repérer certaines hypothèses qui sont entretenues à l’égard des utilisateurs et utilisatrices d’un système technologique.
Prenons par exemple le recours à l’identification biométrique dans des contextes humanitaires, qui est controversée depuis quelques années. Tandis que les données biométriques permettent une transparence et une responsabilité accrues en fournissant une vérification bout à bout, la communauté humanitaire a témoigné de quelques cas très médiatisés d’utilisation abusive de la biométrie. Ceux-ci découlaient d’une gestion irresponsable ou d’une incapacité à prendre en considération les dynamiques de pouvoir qui privent une personne vulnérable d’une réelle capacité de consentir à la collecte, à l’utilisation et au partage d’informations personnelles. Par conséquent, avant d’introduire une technologie, les hypothèses sur son utilisation dans un contexte spécifique doivent être rigoureusement analysées afin de mieux identifier certains risques et de les mitiger.
La sécurité et la protection des données
Les systèmes technologiques incorruptibles et inviolables n’existent pas. Bien que cela puisse paraître pessimiste, une réflexion sur l’inévitabilité des brèches peut aussi alimenter une déconstruction des hypothèses. Une évaluation rapide des risques liés aux différents scénarios, ainsi qu’une analyse probabilité-impact telle qu’effectuée par le groupe Github avec le Norwegian Refugee Council, auprès duquel j’ai eu l’occasion de travailler, a révélé que les vulnérabilités ne se limitent pas à la technologie. Elles comprennent aussi les processus d’une organisation, ainsi que les individus qui sont à son emploi. De ce fait, les erreurs et les fautes professionnelles résultantes de simple négligence, d’une inattention ou d’un manque de formation sont plus fréquentes que les menaces intentionnelles, telles que les logiciels espions et malveillants et les cyberattaques. Il est donc essentiel d’adopter une approche « sécurité dès la conception », qui pourrait réduire les torts involontaires. Cela, bien entendu, ne signifie pas que les menaces sophistiquées intentionnelles n’existent pas dans le milieu — ces dernières présentent toujours un risque sérieux pour les organisations humanitaires et les populations qu’elles desservent.
En réalité, peu d’organisations humanitaires ont la capacité de gérer tous leurs produits technologiques à l’interne. En l’occurrence, elles font souvent affaire à des tiers ou des partenaires pour le développement et la gestion de leurs technologies. Il convient dès lors que l’organisation commanditaire, en tant que « propriétaire du problème », veille à ce que certains éléments clés soient intégrés aux spécifications techniques : la connaissance du contexte, le savoir institutionnel, la culture numérique des utilisateurs et utilisatrices, de même que leur accès à la technologie.
À cette fin, une liste de contrôle des standards minimum pour les logiciels et les plateformes pourrait s’avérer fructueuse. Elle permettrait d’éviter beaucoup de tracas si le risque d’une brèche — que ce soit au niveau de l’organisation commanditaire ou de ses fournisseurs/partenaires — ne peut être entièrement exclue. Il est dès lors important de recenser les dommages potentiels d’une violation des données et de la vie privée, afin de déterminer comment atténuer ce risque.
Réflexions finales
Le dicton selon lequel la route de l’enfer est pavée de bonnes intentions s’applique malheureusement trop souvent en matière de technologie dans les interventions humanitaires. Cependant, un changement positif s’opère dans le milieu de la technologie, où certains des plus grands fabricants du secteur privé mobilisent les apprentissages issus de l’humanitaire dans la conception de leurs produits afin de réduire les dommages involontaires, renforcer la sécurité et rehausser l’inclusion de personnes marginalisées. Nous pouvons ainsi conclure avec une citation de Mike Monteiro tiré de son ouvrage, Ruined by Design : « Le succès, ce n’est pas que lancer son produit. C’est là que le véritable travail commence, de veiller à ce que tout grandisse ».
Auteure:
Cassie Seo, anciennement Cheffe de l’Unité de transformation numérique, Norwegian Refugee Council.
Ce texte a été traduit vers le français et légèrement écourté avec la permission de l’auteure. La version originale du texte a été diffusée en anglais par le Centre for Humanitarian Action (CHA), qui a autorisé sa rediffusion dans le blogue Un seul monde.
Traduction de l’anglais vers le français : Marie-Claude Savard
Crédit photo: Union européenne, CC-BY-NC-ND 2.0