Nouvelles du Canada arabe
Nouvelles
Publié: décembre 16, 2023
Le Collège Béliveau traite le côté sombre de l'intelligence artificielle après la découverte d'images nues générées par l'IA de mineurs circulant dans une école à Winnipeg.
Un courriel envoyé aux parents jeudi après-midi a indiqué que les responsables de l'école ont appris tard lundi que des images modifiées d'élèves des classes de la septième à la douzième année dans une école d'immersion française avaient été partagées en ligne, et que les responsables de l'école avaient contacté la police.
Le message disait : « Nous sommes reconnaissants et fiers des élèves qui ont attiré notre attention sur cette affaire ».
La mère d'une des filles dont les images modifiées figuraient parmi celles partagées a déclaré à CBC News qu'elle espérait que la personne responsable serait tenue responsable, se demandant pourquoi les entreprises d'intelligence artificielle laissaient cela se produire.
Une autre mère, dont le fils est en douzième année au Collège Béliveau, a déclaré être choquée par la nouvelle.
Noni Kobtchowski a déclaré : « Je pense que c'est plus effrayant pour les filles que pour les garçons, c'est juste mon avis ».
« J'ai trois garçons, mais je pense que le meilleur conseil à leur donner est d'être toujours respectueux... Mets-toi à la place de quelqu'un d'autre, c'est douloureux et les dommages sont durables ».
Kobtchowski a dit qu'il y avait eu une discussion sur l'intelligence artificielle à la maison, y compris les risques associés à son utilisation.
« C'est devenu plus terrifiant là-bas, nous nous éduquons beaucoup plus », a-t-elle déclaré.
L'école a déclaré que les images d'origine semblaient avoir été collectées à partir des réseaux sociaux publics, puis modifiées de façon explicite, sans préciser le nombre d'images qu'il pense avoir été partagées ni le nombre de filles victimes.
Le courriel adressé aux parents indiquait que l'école « enquête pour mieux comprendre l'étendue des faits et qui y a participé », et que les responsables « prennent les mesures nécessaires pour répondre aux actions des individus identifiés ayant partagé ces images ».
« Bien que nous ne puissions pas supposer que nous détenons des preuves pour toutes les images manipulées, nous contacterons directement les tuteurs des élèves concernés ».
Le site web de l'école indique que l'école située dans le quartier Windsor Park compte un peu moins de 600 élèves.
Les responsables de l'école ont également été en contact avec Cybertip.ca, une ligne d'appel concernant les abus en ligne, gérée par le Centre canadien de protection de l'enfance à Winnipeg.
Les images reçues par l'école seront téléchargées sur le projet Arachnid de Cybertip, qui peut aider à les supprimer.
Danny McKinnon a déclaré que l'unité de lutte contre l'exploitation de la police mène une enquête, mais qu'il est encore trop tôt pour une enquête active divulguant plus de détails, ajoutant : « L'intelligence artificielle est une partie nouvelle, complexe et délicate de notre monde », « C'est certainement une forme plus récente de comportement furtif, nous sommes dans une zone inconnue. »
Aucune accusation n'a été portée pour l'instant.
Les responsables de l'école ont déclaré que des équipes de soutien sont disponibles pour tout élève affecté directement ou indirectement par ce qui s'est passé.
Le courriel de l'école indiquait que du soutien et des ressources supplémentaires sont disponibles via Cybertip.ca et Need Help Now, une autre ressource canadienne pour les jeunes et les familles.
Le directeur de Cybertip a déclaré que l'exploitation des jeunes par des images créées à leur insu dans des programmes de retouche photo, puis partagées en ligne, était un problème préoccupant depuis des années.
Mais Steven Swires a dit : « L'intelligence artificielle a accéléré cela de façon significative ».
Bien qu'il y ait eu des cas d'utilisation de l'IA pour créer du matériel d'exploitation sexuelle enfantine au Canada, y compris un cas au Québec, Swires n'est au courant d'aucun cas dans ce pays où des adolescents dans une école ont été victimes d'autres adolescents de cette manière.
On ne sait pas à ce stade si la personne responsable est un camarade d'élève, et la police ainsi que l'école n'ont pas commenté à ce sujet.
Swires n'a pas non plus pu parler spécifiquement de l'enquête au Collège Béliveau, mais il a déclaré que les personnes qui créent des images explicites comprennent souvent mal les conséquences et les effets à long terme.
Il a déclaré : « Même si ce matériel est créé parce que les gens pensent que c'est drôle ou un peu méchant... il peut toujours être considéré comme de la pornographie infantile ou du matériel d'exploitation sexuelle enfantine selon la loi ».
« Ce matériel peut revenir hanter la victime plus tard dans sa vie si partagé en ligne avec des informations personnelles. »
Le projet Arachnid — un robot internet qui scrute le web à la recherche d'images connues d'exploitation sexuelle enfantine et envoie des notifications aux entreprises pour les supprimer — peut réduire la propagation de ce type de matériel en ligne, mais la clé est d'y accéder rapidement avant qu'il ne soit diffusé, a déclaré Swires, qui a dit que ces images ont été largement distribuées.
« Ce n'est certainement pas une solution miracle, mais ce qu'il fait, c'est qu'il envoie des notifications aux entreprises pour les avertir quand le matériel est publié sur leurs services... afin qu'ils puissent garder leurs réseaux propres ».
Moura Grossman, professeure de recherche à la Faculté d'informatique de l'Université de Waterloo qui étudie les impacts réels des images générées par l'IA, a déclaré que ce serait le premier cas au Canada d'élèves créant de tels deepfakes d'autres élèves.
Elle a dit qu’il y a eu quelques cas récents aux États-Unis, dans le New Jersey et à Seattle, « mais je n'ai pas entendu dire que cela était arrivé au Canada ».
« C’est assez inquiétant et ce n’est pas difficile à faire, et vous pouvez le faire gratuitement, il existe de nombreux sites en ligne ».
Bien que la capacité d’échanger des visages sur d’autres corps existait déjà, la technologie était mauvaise, a dit Grossman : « Maintenant, n'importe qui peut créer des images convaincantes ».
La partie difficile est maintenant de savoir comment la contrôler.
Elle a expliqué : « Vous avez affaire à des personnes du monde entier, et il est très difficile d’avoir une juridiction sur quelqu’un à l’échelle légale ».
« C’est vraiment difficile, et je pense que ce problème va s’aggraver, pas s’améliorer ».
Commentaires