Au Kenya, des « entraîneurs » de ChatGPT s’élèvent contre leurs conditions de travail
ChatGPT, ce n’est pas seulement un algorithme qui a réponse à tout, ou presque. Pour construire le célèbre outil d’intelligence artificielle (IA) sorti fin 2022, des milliers de petites mains ont été embauchées à travers la planète afin de l’entraîner à bien répondre, en le formant notamment à savoir reconnaître et mettre de côté certains des contenus qu’il trouve sur Internet.
Bill Mulinya a fait ce travail pendant cinq mois, entre fin 2021 et début 2022. Ce jeune Kényan de 30 ans dirigeait une équipe de quinze personnes qui entraînaient le futur ChatGPT à discerner les propos haineux, violents ou relevant du harcèlement pour le compte de Sama, un important sous-traitant des Big Tech, les grandes entreprises du secteur. Dans le cadre de ce contrat conclu avec le concepteur du chatbot, OpenAI, leur job consistait concrètement à lire, toute la journée, des textes trouvés dans tous les recoins du Web et à leur apposer des qualificatifs – ou « étiquettes » – précis afin de les signaler à l’algorithme. Une deuxième équipe était assignée aux textes à caractère sexuel.
« Au début, quand vous commencez à lire ces contenus, c’est ok, raconte M. Mulinya, casquette et chemise, en buvant un smoothie à la terrasse d’un café de Nairobi. Mais quand vous lisez ça en continu, ça commence à s’infiltrer dans votre tête. L’un de mes collègues était une personne très joviale, extravertie. Quand le projet s’est terminé en mars 2022, il était totalement changé, il avait peur de tout. » Nécrophilie, suicide, maltraitance d’enfants… Heure après heure, texte après texte, plusieurs anciens employés ont raconté développer des angoisses, des troubles du sommeil ou de la sexualité. « A un moment donné, presque toute l’équipe m’a demandé d’être en congés, ajoute-t-il. En tant que chef, vous savez que ça signifie qu’il y a un problème. »
« Dommages causés à la santé mentale »
Le contrat devait durer un an. Mais Sama a demandé sa résiliation « immédiatement » après « que les équipes ont attiré l’attention du management », soit au bout de quelques mois, explique dans un courriel le sous-traitant – qui a annoncé arrêter définitivement ce type de contenus. De son côté, OpenAI affirme, également par courriel, reconnaître « la difficulté de ce travail » pour les sous-traitants : « Leurs efforts pour assurer le caractère sûr pour l’utilisateur des systèmes d’intelligence artificielle sont d’une immense valeur. »
La valeur de ce travail, justement, est au cœur de plusieurs affaires qui agitent l’écosystème tech de Nairobi ces derniers mois. La capitale kényane, avec sa main-d’œuvre peu chère, éduquée et anglophone est devenue une plateforme de sous-traitance pour la Silicon Valley. Le pays se dépeint même, un peu pompeusement, en « Silicon Savannah » : le gouvernement veut introduire l’apprentissage des bases du codage informatique dès l’école primaire et vante sa jeunesse comme un vivier pour les géants du Web, façon Bangalore africain.
Il vous reste 55.82% de cet article à lire. La suite est réservée aux abonnés.