Un guide d’usage de l’intelligence artificielle dans la fonction publique d’Etat
A l’instar des entreprises, la fonction publique d’Etat se prépare à intégrer l’intelligence artificielle (IA) dans la gestion des ressources humaines (GRH). Des expérimentations vont bientôt démarrer dans les ministères se portant volontaires. Il est plus que temps : en 2019, un rapport de l’OCDE estimait qu’il serait bientôt possible de libérer près d’un tiers du temps des fonctionnaires, qui passeraient dans ce scénario optimiste de « tâches banales à un travail à haute valeur ajoutée ».
L’Etat, qui s’était vu reprocher il y a quelques années le retard français dans la numérisation des services publics, entend cette fois intégrer au plus vite l’IA dans ses processus RH, tout en se prémunissant contre d’éventuelles dérives. « La prise en compte du risque en termes de responsabilité sociétale est plus forte dans la fonction publique, qui exige plus de transparence sur le fonctionnement de l’IA. Mais ça n’est pas simple, s’agissant de produits prépackagés par des entreprises de la tech », souligne Karim Chérif, associé du cabinet Magellan qui accompagne les employeurs sur ce sujet.
D’où la publication en ligne, le 4 juin 2024, d’un guide pour encadrer l’usage de l’IA sous les auspices de la direction générale de l’administration et de la fonction publique (DGAFP). Partant du constat que l’immixtion de l’IA dans la GRH de l’administration d’Etat (ministères, établissements publics à caractère administratif) recèle à la fois des opportunités (gain de temps, productivité) et des risques (mésusage des données personnelles, déshumanisation…), la DGAFP répertorie dans son guide 26 cas d’usages potentiels de l’IA en GRH.
Des usages souhaitables et d’autres à proscrire
Cinq usages considérés comme particulièrement souhaitables seront a priori les premiers à être testés : l’analyse des résultats d’enquêtes internes, des recommandations contextuelles de formation, l’apprentissage personnalisé, la rédaction de fiches de poste et l’identification des compétences émergentes.
A l’inverse, la DGAFP identifie dans son guide quatre cas d’usages « à proscrire ». L’IA ne saurait ainsi être pertinente pour la détection précoce des problèmes de santé mentale, l’analyse des relations entre collègues, pour faire passer des entretiens vidéo automatisés avec les candidats, ou instaurer des systèmes de reconnaissance et de récompense.
Entre ces deux extrêmes, on recense 17 usages de l’IA « envisageables » sous réserve. Ainsi en va-t-il du parcours d’onboarding (intégration du nouveau salarié) ou de carrière personnalisé, de l’évaluation des compétences, du feedback en temps réel des formations suivies, de la formation des équipes interdisciplinaires…
Il vous reste 38.66% de cet article à lire. La suite est réservée aux abonnés.