Publicité IA interdite pour la promotion de modifications corporelles non consensuelles

23

Une publicité pour l’application de montage vidéo IA PixVideo a été interdite pour avoir représenté le retrait numérique de vêtements du corps d’une femme sans son consentement. La publicité, apparue sur YouTube en janvier, montrait une image sur écran partagé : le premier panneau avec des gribouillages rouges couvrant le ventre de la femme et le second montrant la peau exposée. Le texte d’accompagnement disait : “Effacez tout [emoji yeux-cœur]”.

La publicité a suscité huit plaintes auprès de l’Autorité des normes de publicité (ASA), les critiques affirmant qu’elle sexualisait les femmes, encourageait un comportement irresponsable et était préjudiciable. L’ASA a statué que la publicité réduisait la femme à un objet sexuel et impliquait que les téléspectateurs pouvaient utiliser l’application pour retirer les vêtements de quelqu’un sans sa permission.

La société mère de PixVideo, Saeta Tech Ltd, a admis que la publicité était susceptible d’offenser, mais a maintenu que le problème résidait dans sa présentation et non dans le produit lui-même. L’entreprise affirme que ses conditions d’utilisation interdisent les contenus nus ou sexuellement explicites et que les filtres automatisés empêchent la génération de telles images. Il a également déclaré que l’application n’était pas conçue pour retirer des vêtements.

Malgré ces défenses, l’ASA a déterminé que la publicité était irresponsable, renforçait un stéréotype de genre préjudiciable et était susceptible de provoquer une offense grave. L’entreprise a volontairement supprimé la publicité et a lancé un audit interne de ses pratiques marketing.

La décision de l’ASA interdit la réapparition de la publicité, avec une directive visant à garantir que les futures publicités soient socialement responsables et évitent d’objectiver ou de sexualiser les femmes. Cet incident met en lumière les inquiétudes croissantes concernant l’utilisation abusive d’outils basés sur l’IA à des fins de manipulation numérique non consensuelle, en particulier dans le contexte de l’image corporelle et de l’exploitation fondée sur le genre. L’interdiction souligne la nécessité d’une surveillance plus stricte du contenu généré par l’IA afin de prévenir tout préjudice et de protéger les droits individuels.