« A l’explicabilité de l’intelligence artificielle, sont associés des enjeux organisationnels et politiques majeurs »

« A l’explicabilité de l’intelligence artificielle, sont associés des enjeux organisationnels et politiques majeurs »

Tribune. Au cœur de la nouvelle révolution industrielle et sociétale, les questions éthiques relatives à l’intelligence artificielle (IA) et à ses applications se posent avec acuité.

Actuellement, le débat le plus récurrent et le plus vif est celui des biais, réels ou supposés, que l’IA peut reproduire, ou engendrer. Ces biais, qu’ils soient de genre, relatifs aux origines, aux convictions religieuses ou aux opinions politiques, sont d’autant plus scrutés qu’ils font écho à des préoccupations politiques d’une actualité brûlante.

En parallèle des interrogations sur les biais, ou plutôt englobant ces questions, un autre enjeu éthique de l’IA se profile : celui de l’explicabilité des systèmes algorithmiques. La capacité des organisations à constamment expliquer les systèmes qu’elles conçoivent et utilisent pourrait vite devenir un enjeu politique majeur.

Comprendre et rendre compte

En effet, il peut être difficile de reconstituer le chemin qui conduit aux solutions proposées par des systèmes comprenant des algorithmes apprenants, notamment du deep learning tels que les réseaux de neurones. Or, c’est précisément cette famille d’IA, plutôt « boîte noire », qui connaît un succès important dans des tâches comme la reconnaissance d’image et de texte, utilisée dans les véhicules autonomes, les chatbots, les diagnostics médicaux…

Si, sur le papier, ex ante, leur fonctionnement est plus ou moins appréhendé, la complexité des multiples correspondances qui se forment durant l’apprentissage échappe à la rationalité limitée des humains, fussent-ils spécialistes. Comprendre pourquoi telle décision a été prise dans tel cas devient vite une gageure, encore plus en présence de plusieurs systèmes d’IA imbriqués les uns dans les autres. En témoignent les incertitudes persistantes sur les causes définitives de récents accidents de voitures autonomes, malgré les multiples travaux d’investigation sur le sujet.

Lire aussi Article réservé à nos abonnés « La question n’est pas celle d’une intelligence artificielle qui remplace l’expert mais qui le seconde »

Il faut donc expliquer pour d’une part, comprendre dans le but d’améliorer l’algorithme, parfaire sa robustesse et prévoir ses failles et, d’autre part, pour rendre compte aux multiples parties prenantes, externes (régulateurs, utilisateurs, partenaires) ou internes à l’organisation (managers, chefs de projet).

Pour répondre à ce défi, un nouveau champ a émergé : l’eXplainable Artificial Intelligence (XAI) qui propose des outils d’explication. Cependant, malgré les réponses qu’il apporte, deux questions majeures persistent.

Explication n’est pas justification

La première est l’identification du périmètre d’explication à retenir : les outils d’XAI permettent de comprendre certains fonctionnements, mais en occultent d’autres estimés non prioritaires.

Il vous reste 58.83% de cet article à lire. La suite est réservée aux abonnés.

Avatar
LJD

Les commentaires sont fermés.