Nouvelles du Canada arabe

Nouvelles

Meta : les utilisateurs doivent classer l'audio et la vidéo générés par l'intelligence artificielle, sinon ils pourraient être sanctionnés.

Meta : les utilisateurs doivent classer l'audio et la vidéo générés par l'intelligence artificielle, sinon ils pourraient être sanctionnés.

By Mounira Magdy

Publié: février 7, 2024

Le directeur de la politique a déclaré mardi que Meta Platforms pourrait sanctionner les utilisateurs qui ne classent pas le contenu audio et visuel généré par l'intelligence artificielle publié sur ses plateformes.

Ces déclarations ont été faites par Nick Clegg, responsable des affaires mondiales de Meta, lors d'une interview avec Reuters.

Clegg a déclaré qu'il était confiant que les entreprises technologiques pouvaient classer de manière fiable les images générées par l'intelligence artificielle à ce stade, mais il a indiqué que les outils d'identification du contenu audio et vidéo étaient plus complexes et étaient encore en développement.

Clegg a ajouté : « Bien que la technologie ne soit pas encore pleinement mature, en particulier en ce qui concerne l'audio et la vidéo, l'espoir est que nous puissions créer un élan et une incitation pour le reste de l'industrie à suivre le mouvement. »

Clegg a assuré qu'entre-temps, Meta commencera à demander aux personnes de nommer leur contenu audio et vidéo modifié, et pourrait appliquer des sanctions s'ils ne le font pas, sans décrire les sanctions.

Meta nomme les images générées par l'intelligence artificielle sur ses plateformes

Ces commentaires interviennent après que Clegg a annoncé dans un article de blog que Meta commencera à détecter et marquer les images générées par les services d'intelligence artificielle d'autres entreprises dans les mois à venir, en utilisant un ensemble d’étiquettes invisibles intégrées dans les fichiers.

Meta appliquera les classifications à tout contenu portant les marques publié sur les services Facebook, Instagram et Threads, afin de signaler aux utilisateurs que les images - qui ressemblent souvent à des images réelles - sont en réalité des créations numériques.

Ritesh Kotak, analyste en cybersécurité et technologie à Toronto, a déclaré : « Ce sera un travail en cours et ce sera toujours un jeu de chat et de souris essentiellement, mais c'est un début. »

Il a averti que tout comme la technologie de Meta pour détecter et classer les images générées par l'IA s'améliore, la capacité d’un outil d'intelligence artificielle à tromper la technologie de détection s'améliorera également.

En ce qui concerne le type de sanctions auxquelles les utilisateurs pourraient être exposés, Kotak a déclaré que cela pourrait impliquer leur suspension ou leur suppression de la plateforme. Il a ajouté que cela pourrait avoir des répercussions plus larges.

Il a déclaré : « Si vous ne pouvez pas accéder à votre compte, et si vous n'êtes pas en mesure de profiter de la plateforme elle-même, cela pourrait avoir des implications supplémentaires comme une perte économique si vous utilisez votre compte pour gagner de l'argent. »

L'entreprise classe déjà tout contenu créé à l'aide de ses propres outils d'intelligence artificielle. Clegg a déclaré qu'une fois que le nouveau système sera activé, Meta fera de même pour les images générées sur les services gérés par OpenAI, Microsoft, Adobe, Midjourney, Shutterstock et Google, filiale de Alphabet.

Il a ajouté lors de l'interview qu'il n'existe actuellement aucun mécanisme viable pour nommer le texte écrit généré par des outils d'intelligence artificielle comme ChatGPT, déclarant : « Ce navire a quitté le port. »

Un porte-parole de Meta a refusé de dire à Reuters si la société appliquerait des classifications au contenu d'intelligence artificielle partagé sur le service de messagerie cryptée WhatsApp.

Cette annonce offre un aperçu précoce d'un système émergent de normes sur lequel les entreprises technologiques travaillent pour atténuer les dommages potentiels associés aux technologies d'intelligence artificielle générative, qui peuvent diffuser un contenu faux mais réaliste en réponse à des demandes simples.

Cette approche repose sur un modèle développé au cours de la dernière décennie par certaines de ces entreprises elles-mêmes pour coordonner la suppression de contenu interdit à travers les plateformes, y compris la représentation de la violence de masse et l'exploitation des enfants.

Le conseil de surveillance indépendant de Meta a critiqué lundi la politique de l'entreprise concernant les vidéos manipulées de manière trompeuse, déclarant qu'elle était trop stricte et que le contenu devait être classé plutôt que supprimé. Clegg a généralement convenu de ces critiques.

Il a déclaré que le conseil avait raison de dire que la politique actuelle de Meta « n'est tout simplement pas adaptée à son objectif dans un environnement où il y aura davantage de contenu synthétique et de contenu mixte qu'auparavant. »

Il a cité le partenariat de classification nouvellement établi comme preuve que Meta allait déjà dans la direction suggérée par le conseil.

Commentaires

En rapport

Météo

Aujourd'hui

jeudi, 17 juillet 2025

Chargement...
icon --°C

--°C

--°C

  • --%
  • -- kmh
  • --%