ChatGPT ou le miroir du savoir mondain

ChatGPT ou le miroir du savoir mondain

Entreprises. Avec l’accès de tous au système ChatGPT, le débat sur les dangers de l’intelligence artificielle (IA) a atteint le grand public. Dans de nombreux domaines, l’IA a déjà dépassé les capacités humaines. Mais ce qui trouble dans ChatGPT, ce n’est plus la puissance de raisonnement ou de calcul, mais sa capacité à mobiliser une grande masse de textes pour répondre, selon les règles communes du discours, à toutes les questions qu’on lui pose.

Observateurs, entreprises et enseignants se sont alors inquiétés de voir le système élaborer des synthèses professionnelles ou des devoirs académiques perçus comme « satisfaisants ». Mais n’est-ce pas cette satisfaction que ChatGPT nous impose plutôt d’interroger ?

A ses débuts, l’IA visait la captation des savoirs techniques et spécialisés. Les systèmes experts des années 1980 fournissent des diagnostics médicaux, aident les réparateurs de machines ou à la conduite des robots. Le savoir qu’ils capturent est celui d’un raisonnement mobilisant les faits et les règles d’un métier. Cette approche connaît sa percée la plus spectaculaire avec les logiciels d’échecs ou de jeu de go, qui battront les plus grands maîtres.

Lire aussi : Article réservé à nos abonnés « Avec ChatGPT et l’irruption de l’intelligence artificielle, la question de la raréfaction du travail et de l’avenir des retraites est relancée »

La seconde étape de l’IA adopte une démarche inverse. Au lieu de partir du savoir d’un expert, on va tenter de générer celui-ci en entraînant un algorithme à partir de bases de données gigantesques. La reconnaissance faciale est emblématique de cette approche. L’IA peut alors apprendre à imiter un style littéraire ou musical et à générer des formes complexes à partir de millions d’exemples.

Un parfait rhéteur

Or, il n’a pas fallu longtemps aux usagers perspicaces de ChatGPT pour se rendre compte que le système raisonne et calcule mal. De même qu’il se révèle, par exemple, un piètre joueur d’échecs. Pourtant, il peut aisément disserter sur la théorie de la relativité générale d’Einstein, donner les règles d’une société civile immobilière ou aborder avec pondération un dilemme moral.

ChatGPT agit donc comme un parfait rhéteur, qui, sans comprendre ce dont il parle, cherche dans sa mémoire – bien supérieure à celle d’un humain – les phrases les plus établies, donc les lieux communs, qu’il agencera ensuite en une réponse convaincante.

Lire aussi : Article réservé à nos abonnés « On va gagner tellement de temps » : les apprentis sorciers de ChatGPT

Cette rhétorique fascinante place les manageurs en attente de rapports et les professeurs correcteurs de dissertations devant un miroir inquiétant : doivent-ils encore se satisfaire de synthèses humaines, si elles répètent, comme ChatGPT, ce que disent les textes ?

Mais s’ils doivent solliciter, au contraire, des propositions originales, seront-ils capables de les reconnaître et d’y répondre eux-mêmes ? Une recherche expérimentale récente montre que pour qu’un leader ou un professeur puisse accueillir des propositions innovantes ou surprenantes, il faut qu’il soit lui-même capable de détecter les biais de son propre savoir et les limites de son processus créatif (Justine Boudier, Modéliser et expérimenter un « leader défixateur » en situation de fixations hétérogènes, thèse PSL, MinesParis, 2022)

Il vous reste 11.48% de cet article à lire. La suite est réservée aux abonnés.

Avatar
LJD

Les commentaires sont fermés.