Obstacles à la communication
Il est sans doute plus difficile d’appréhender le potentiel de l’IA dans les pays à faible revenu, où les compétences en lecture et en calcul sont plus faibles et où les données numériques et les algorithmes utilisés pour les traiter ne sont pas bien connus. Par exemple, dans le cadre de l’expérience réalisée sur le terrain à Nairobi (Kenya), nous avons eu du mal à expliquer à des personnes à faible revenu des algorithmes simples utilisant des nombres négatifs et des fractions. Notre équipe a cependant trouvé des moyens plus simples de communiquer ces concepts. Les personnes qui ont réagi à l’algorithme avaient manifestement compris le concept. Il n’en reste pas moins que les systèmes d’IA complexes sont difficiles à comprendre, même pour les chercheurs.
Certaines applications n’exigent pas de connaître le fonctionnement des algorithmes. Par exemple, les suggestions de contenu communiquées par Netflix à ses abonnés peuvent être utiles à ces derniers, même s’ils ne savent pas comment fonctionne l’algorithme qui en est à l’origine. De même, en cas de crise humanitaire, les décideurs peuvent privilégier un algorithme opaque de type « boîte noire », comme l’a fait le gouvernement togolais en réponse à la crise de la COVID-19.
La transparence est parfois capitale. Lorsque l’on prend des mesures de protection sociale dans une situation non urgente, il est essentiel d’expliquer les critères d’admissibilité aux bénéficiaires potentiels. Voilà qui est plus facile à dire qu’à faire : il ressort de nombreux entretiens et groupes de discussion que les normes et les valeurs relatives aux données et à la confidentialité sont fondamentalement différentes dans un contexte tel que le Togo rural et dans les pays riches où les systèmes d’IA sont plus courants. Par exemple, peu de nos interlocuteurs étaient préoccupés par l’accès du gouvernement ou des entreprises à leurs données (une préoccupation majeure en Europe et aux États-Unis), mais nombre d’entre eux souhaitaient savoir si et comment ces informations allaient être communiquées à leurs voisins.
L’IA étant de plus en plus utilisée, les populations doivent connaître son incidence sur la société. Par exemple, l’IA peut générer des photographies provocantes entièrement fausses et des appels robotisés qui reproduisent la voix d’une personne. Ces changements rapides détermineront dans quelle mesure les informations accessibles en ligne sont dignes de confiance. Même les populations isolées doivent être sensibilisées si l’on veut éviter qu’elles soient induites en erreur et s’assurer que leurs préoccupations sont prises en compte dans l’élaboration des réglementations.
Forger des liens
Les solutions d’IA reposent sur l’infrastructure numérique matérielle existante, allant des énormes bases de données installées sur des serveurs aux câbles de fibre optique et aux tours de transmission cellulaire, en passant par les téléphones portables. Au cours des deux dernières décennies, les pays en développement ont investi massivement afin que les zones éloignées aient accès à la téléphonie mobile et à Internet pour ainsi jeter les bases de ces nouvelles applications.
Même si les applications d’IA bénéficient d’une infrastructure numérique, certaines d’entre elles pourraient mieux utiliser les ressources existantes. Par exemple, en Sierra Leone, de nombreux enseignants ont du mal à accéder à Internet. Pour certaines tâches, il peut être plus facile de consulter un robot conversationnel, puis de valider sa réponse, que de rassembler des informations à partir de plusieurs ressources en ligne.
Certains systèmes d’IA nécessiteront toutefois des investissements dans l’infrastructure du savoir, en particulier dans les pays en développement, où les lacunes en matière de données persistent et où les pauvres sont sous-représentés dans le monde numérique. Dans ces pays, les modèles d’IA disposent d’informations incomplètes sur les besoins, les aspirations et l’état de santé des personnes à faible revenu, sur l’apparence des personnes et des villages, et sur la structure des langues moins usuelles.
Pour recueillir les données manquantes, il peut être nécessaire d’intégrer les cliniques, les écoles et les entreprises dans des systèmes d’archivage numériques, d’accorder des incitations à leur utilisation et d’établir la légitimité des droits sur les données obtenues.
Par ailleurs, les systèmes d’IA devraient être adaptés aux valeurs et aux conditions locales. Par exemple, on peut supposer que les systèmes d’IA utilisés en Occident amènent les enseignants à recourir à du matériel coûteux tel que des tableaux blancs ou des diapositives numériques. Ces systèmes doivent être adaptés aux enseignants qui ne disposent pas de ces ressources. En investissant dans les capacités et la formation des développeurs et concepteurs locaux de systèmes d’IA, on peut s’assurer que la prochaine génération d’innovations techniques reflétera mieux les valeurs et les priorités locales.
L’IA laisse entrevoir de nombreuses applications utiles pour les démunis dans les pays en développement. La difficulté n’est pas de voir grand — on peut imaginer sans peine les bienfaits pour les pauvres —, mais plutôt de s’assurer que ces systèmes sont adaptés aux besoins des personnes et au contexte local, et ne causent pas de préjudice.