Quand Flickr crée des tags racistes accidentellement

Quand Flickr crée des tags racistes accidentellement En automatisant la description de photographies sans aucun contrôle préalable de l'utilisateur, un homme de peau noire a ainsi été identifié avec les auto-tags "animal" et "singe". Une erreur d'algorithme fort gênante.

Flickr, le site gratuit de partage de photos et vidéos, a mis à jour début mai son logiciel avec une technologie avancée de reconnaissance d'image. Ainsi, des libellés tels que "paysage", "intérieur", "noir et blanc" ou encore "nourriture" étaient assignés automatiquement aux photographies de l'utilisateur, sans contrôle préalable possible. Malheureusement, avec ce processus d'intelligence artificielle censé faciliter l'expérience utilisateur, un homme noir s'est vu affublé du tag "singe" et une femme, dont le visage était pigmenté de couleurs, d'"animal"... Et les erreurs ne se sont pas arrêtées là : de nombreux clichés des camps de concentration de Dachau et d'Auschwitz auraient été répertoriés dans la catégorie "sport" et "jeux pour enfants"...

Exemple de tags proposés © Capture écran Flickr

Alerté par un utilisateur, le site, propriété de Yahoo, a supprimé aussitôt les tags en question et s'est excusé auprès du quotidien britannique Le Guardian : "Même si nous sommes très fiers de notre technologie de reconnaissance d'images avancée, nous sommes les premiers à admettre qu'il y aura des erreurs et nous travaillons constamment pour améliorer l'expérience. Si vous supprimez un tag incorrect, notre algorithme apprendra de cette erreur et fera mieux à l'avenir. Le processus de tag est complètement automatisé, aucun humain ne verra vos photos pour les taguer". Mais ce qui se cache derrière cette polémique, c'est un manque de transparence vis-à-vis des utilisateurs quant aux modifications apportées au site de manière générale. En effet, certains utilisateurs mécontents, voire blessés, ont rapporté ne pas avoir été consultés en amont sur ces changements liés à la reconnaissance d'image.