Intelligence artificielle : « L’humain, qui est le point de départ de tout dispositif numérique, doit rester le point d’arrivée »
Il n’y a plus un discours sur l’innovation, le numérique et sur l’intelligence artificielle (IA) qui ne fasse pas de « l’humain » la pierre angulaire de sa raison d’être. La vision « humano-centrée » fait de la technologie un outil à son service. Y compris le rapport « IA : notre ambition pour la France » remis au président de la République le 13 mars par la commission de l’intelligence artificielle, dont un chapitre est titré « Humanisme : plaçons l’IA à notre service ». Cela est louable, incontestable, irréfutable. Mais c’est à la fois une vision réductrice de l’IA et une acception bien précise du mouvement humaniste.
D’abord, un objet ou un service numérique n’est pas – et n’a jamais été – un simple outil. Internet, les réseaux sociaux et l’IA sont des dispositifs sociotechniques et politiques conçus par des humains. Or, à force de calculs (intentionnel, mathématique, éthique, moral, financier…), le numérique les rend invisibles. Il faut donc « ouvrir le capot » des calculs pour que l’humain, qui est le point de départ de tout dispositif numérique, en reste le point d’arrivée.
Ensuite, l’humanisme qui sous-tend le progrès par l’IA, tel qu’il est décrit dans le rapport de la commission, s’apparente plus à un humanisme existentialiste, axé sur l’individu, la liberté de choix et la responsabilité personnelle, qu’à un humanisme tel qu’il peut être admis dans le langage courant, synonyme de bienveillance, d’altruisme, et d’un souci pour le bien commun, dans une perspective globale, et non locale. A cet égard, l’humanisme évoqué s’arrête aux frontières de la nation, et au pourtour de l’individu.
Culture commune
Mais affirmer avoir une préoccupation pour l’humain, c’est devoir s’acquitter d’une responsabilité envers lui. Les concepteurs de systèmes d’IA doivent être sensibilisés aux conséquences sociales, cognitives, éthiques ou encore environnementales que leurs choix techniques engendrent. Quand un immeuble s’effondre, la responsabilité de l’architecte est étudiée. Quand un algorithme favorise la désinformation ou amplifie de multiples risques psychosociaux, qu’en est-il de la responsabilité de son ou de ses architectes ?
Pour cela, les fondamentaux des sciences et des techniques, de l’anthropologie et de la sociologie doivent être enseignés plus largement qu’ils ne le sont dans les cursus techniques. Le partage d’une telle culture commune permettrait également de sortir des rêves technicistes et des amalgames hâtifs qui font de toute vague de nouveaux usages une nouvelle révolution.
Il vous reste 56.19% de cet article à lire. La suite est réservée aux abonnés.