Nouvelles du Canada arabe

Nouvelles

Jeune kényan, mes collègues et moi payons un prix élevé pour garantir l'utilisation sûre de ChatGPT.

Jeune kényan, mes collègues et moi payons un prix élevé pour garantir l'utilisation sûre de ChatGPT.

By Mohamed Nassar

Publié: août 17, 2023


Moffat Okini, âgé de 27 ans, dit que travailler dans l'intelligence artificielle l'a traumatisé

Des employés kenyans ont décrit les chocs et les dommages psychologiques qu'ils ont subis pour garantir la sécurité de la technologie de l'intelligence artificielle.

L'intelligence artificielle (IA) envahit le monde, et pour rendre les chatbots puissants comme ChatGPT sûrs, des personnes sont utilisées pour s'assurer que l'IA peut reconnaître le contenu extrémiste et s'assurer qu'il n'est pas montré aux utilisateurs.

C'est une industrie en pleine croissance, évaluée à des milliards de dollars, employant des milliers de personnes dans des régions à faible revenu comme l'Afrique, l'Inde et les Philippines, ainsi que dans des pays à la pointe de l'innovation technologique comme la Chine et les États-Unis.

Mais le processus de création de ces filtres de sécurité peut avoir un impact négatif sur ceux qui regardent les contenus et images violents.

Le Kenyan travaillait comme modérateur de données, dont la mission était de surveiller et de signaler le contenu extrémiste

Le jeune homme de 27 ans dit que le choc qu'il a subi a affecté sa vie amoureuse, ses amitiés, et l'a laissé déprimé. D'autres collègues lui ont dit qu'ils souffrent de trouble de stress post-traumatique.

Moffat travaillait pour la société Sama, qui a été engagée par la société derrière la technologie ChatGPT.

Lui et ses collègues étaient chargés de trier les contenus extrémistes pour empêcher le chatbot d'y accéder et donc de les montrer aux utilisateurs – le rôle de Moffat était de vérifier tout le contenu classifié et d'en valider l'exactitude.

Moffat s’est joint à d'autres entreprises de classification de données pour présenter une pétition au Parlement kényan afin d’enquêter sur les conditions d’emploi dans les entreprises technologiques kényanes utilisées par les grandes entreprises technologiques étrangères pour modérer le contenu et d'autres tâches d’IA.

Il dit qu'ils n'ont pas reçu de formation suffisante pour gérer le contenu écrit extrémiste qu'ils traitaient et qu'ils n'ont pas bénéficié d'un soutien psychologique professionnel adéquat – des allégations que Sama nie fermement.

La psychologue spécialisée en stress post-traumatique, la Dre Veronica Ngitcho, a expliqué que l'exposition à un contenu extrémiste en ligne est connue sous le nom de traumatisme secondaire et peut avoir un effet prolongé similaire à celui du traumatisme initial subi par les personnes maltraitées.

Elle a déclaré : « Lorsque le traumatisme secondaire est particulièrement dommageable, c’est dû au sentiment d’impuissance face à celui-ci ».

« Parce que vous regardez le contenu, il n’y a pas d’étape suivante, personne à qui rapporter, vous ne pouvez rien faire à ce sujet ».

« Et comme c’est de la modération de contenu, vous ne pouvez pas prévoir ce que vous allez voir ni savoir comment cela pourrait dégénérer ».

Ngitcho a déclaré que les symptômes du traumatisme secondaire peuvent inclure des cauchemars, l’évitement des interactions sociales, un manque d’empathie, ainsi que de l’anxiété ou du stress en voyant quoi que ce soit rappelant ce qu’ils ont lu ou vu.

Le précédent employeur de Moffat affirme qu’un soutien psychologique et social a été offert pendant toute sa période de travail chez eux.

La Dre Ngitcho a indiqué qu’il est essentiel que les entreprises fournissent le soutien nécessaire « pour s’assurer qu’il n’affecte pas leurs performances et leur bien-être ».

En mai, plus de 150 modérateurs de contenu africains fournissant des services pour des outils d’intelligence artificielle utilisés par plusieurs grandes entreprises technologiques ont voté pour la création du premier syndicat des modérateurs de contenu.

Ce type de reconnaissance et de compréhension est ce que Moffat souhaite des grandes entreprises technologiques et des milliards d’utilisateurs.

« Les gens doivent savoir que ceux qui rendent leur plateforme sûre sont les modérateurs de contenu, car les gens ne savent même pas si ce groupe de personnes existe ».

La société Sama a nié toutes les plaintes et a déclaré que tous les candidats ont passé un test de « résilience mentale » et ont été exposés à des exemples du contenu qu’ils allaient gérer, en plus du fait que, avant le début du projet, les employés devaient lire et signer un formulaire de consentement avant de rejoindre l’entreprise, ce qui signifie que la société mettait en avant la nature du contenu potentiellement violent.

Un porte-parole de l’entreprise a déclaré : « Pour les collègues retenus pour le projet, un soutien psychologique et social leur a été offert tout au long de leur travail ».

« Sama emploie des professionnels de santé qualifiés qui fournissent des services de conseil psychologique 24h/24 et 7j/7, sur site ou via le régime d’assurance santé de l’entreprise. »

Pour l’instant, Moffat attend de savoir si la pétition sera entendue au Parlement ou non. Alors qu’il essaie de travailler sur sa santé mentale, il se console en pensant que son travail de classificateur de données l’aidera à guérir.

Il dit : « Je suis très fier. Je me sens comme un soldat. Maintenant, l’utilisation de ChatGPT est sûre pour tout le monde, parce que c’est nous qui prenons les coups à leur place ».

Commentaires

En rapport

Météo

Aujourd'hui

mercredi, 16 juillet 2025

Chargement...
icon --°C

--°C

--°C

  • --%
  • -- kmh
  • --%