Nous utilisons tous l’IA, mais avons-nous appris à la comprendre ?

Si, en matière d’IA, la majorité des discours tourne autour de la notion de « responsabilisation », on néglige le problème éthique de base : l’alphabétisation. Explications de Phaedra Boinodiris, Global Leader for Trustworthy AI, IBM Consulting.

Alors que nous approchons de la fin d’une année apparemment ininterrompue d’innovation, de scandales et d’émerveillement dans le domaine de l’IA, l’éthique et la gouvernance de cette technologie n’ont jamais été aussi importantes, ni aussi incertaines.

Alphabétisation… parce que les gens ne savent pas qu’ils utilisent l’IA

Avant que ce ne soit une affaire de responsabilisation, Phaedra Boinodiris pense que c’est une question d’alphabétisation. « L’alphabétisation en IA désigne la capacité à comprendre, utiliser et évaluer l’intelligence artificielle. » L’IA est devenue omniprésente dans l’actualité, chaque jour nous apporte un nouveau titre digne d’un roman de science-fiction.

« Pourtant, partout dans le monde, dans tous les types de rôles et de secteurs, les gens ne savent toujours pas qu’ils l’utilisent. Ainsi, s’il est essentiel de résoudre les problèmes les plus médiatisés -et bien réels- comme les algorithmes biaisés, la confidentialité des données, l’impact environnemental, les suppressions d’emplois, etc., rien de tout cela ne peut être accompli sans un monde alphabétisé en IA, du marché du travail au gouvernement, en passant par les systèmes scolaires et au-delà. »

Alphabétiser, c’est donner des outils -parmi d’autres- pour comprendre le monde, pour s’y situer, pour développer ses capacités d’analyse et de réflexion critique, pour y agir socialement, économiquement, culturellement et politiquement.

Approche multidisciplinaire

La création d’une IA éthique n’est pas strictement un problème technique mais un problème sociotechnique, soutient Phaedra Boinodiris. « L’équipe qui conçoit le modèle doit être multidisciplinaire plutôt que cloisonnée. Depuis des décennies, nous communiquons que ceux qui n’ont pas d’expertise traditionnelle dans le domaine n’ont pas leur place dans la salle. C’est une énorme erreur. »

Pour créer des modèles d’IA organisés de manière responsable -qui, soit dit en passant, sont également des modèles plus précis-, on a besoin d’une équipe composée de plus que de simples data scientists qui peuvent intervenir dès le départ sur des questions telles que « est-ce que cette IA résout le problème dont nous avons besoin ? », « Les experts du domaine estiment-ils que ces données sont exactes ? »,  Quels sont leurs effets imprévus ? » ou « Comment pouvons-nous les atténuer ? »

« Faites appel à des experts en linguistique et en philosophie, conseille encore Phaedra Boinodiris. Egalement à des parents, à des jeunes, à des gens ordinaires ayant des expériences de vie différentes et issus de milieux socio-économiques différents. Plus la diversité est grande, mieux c’est ! Ce n’est pas une question de moralité, c’est une question de mathématiques. »