Tribune. Au cœur de la nouvelle révolution industrielle et sociale se trouvent des questions éthiques sur l’intelligence artificielle (IA) et ses applications.
Actuellement, les débats les plus fréquents et les plus vifs concernent les biais, réels ou perçus, que l’IA peut reproduire ou générer. Ces préjugés, qu’ils soient de sexe, d’ascendance, de croyances religieuses ou d’opinions politiques, sont d’autant plus scrutés qu’ils résonnent avec des questions politiques épineuses.
Parallèlement aux questions sur les biais, ou plutôt les questions qui les incluent, se pose un autre problème éthique en IA : le problème de l’explicabilité des systèmes algorithmiques. La capacité des organisations à expliquer en permanence les systèmes qu’elles développent et utilisent peut rapidement devenir un enjeu politique majeur.
Comprendre et communiquer
En effet, il peut être difficile de reconstituer le chemin qui mène aux solutions offertes par les systèmes contenant des algorithmes d’apprentissage, notamment le deep learning comme les réseaux de neurones. Cependant, c’est cette famille d’IA, plus précisément la « boîte noire », qui connaît un succès significatif dans des tâches telles que la reconnaissance d’images et de textes utilisées dans les véhicules autonomes, robots de discussiondiagnostic médical…
Si sur le papier, ex ante, leur fonctionnement est plus ou moins clair, alors la complexité des multiples correspondances qui se forment dans le processus d’apprentissage échappe à la rationalité limitée des personnes, même si elles sont des spécialistes. Comprendre pourquoi une telle décision a été prise dans un tel cas devient rapidement un défi, surtout lorsqu’il existe plusieurs systèmes d’IA imbriqués. En témoigne l’incertitude persistante quant aux causes ultimes des accidents de voiture récents, malgré de nombreux efforts d’enquête sur le sujet.
Il est donc nécessaire d’expliquer pour, d’une part, comprendre, améliorer l’algorithme, améliorer sa fiabilité et anticiper ses lacunes, et d’autre part, rendre compte à de nombreux acteurs externes (régulateurs, utilisateurs). , partenaires) ou au sein de l’organisation (managers, chefs de projet).
Pour résoudre ce problème, un nouveau domaine a émergé : l’Intelligence Artificielle eXplainable (XAI), qui propose des outils explicatifs. Cependant, malgré les réponses qu’il donne, deux questions principales demeurent.
L’explication n’est pas une excuse
Le premier est la définition de la portée de l’explication qu’il convient de préserver : les outils XAI permettent de comprendre certaines fonctionnalités, mais en masquent d’autres considérées comme non prioritaires.
Il vous reste 58,83% de cet article à lire. De plus uniquement pour les abonnés.