Les femmes, principales victimes des faux perfectionnés générés par IA

Entre applications photo qui déshabillent numériquement les femmes, messages sexualisés mettant en scène des filles nées de l'intelligence artificielle et images manipulées en vue d'un racket de "sextorsion", l'hypertrucage (deepfake) pornographique est en plein essor, prenant de court les législateurs.

La propagation de ces contenus altérés par l'intelligence artificielle (IA) a dépassé les efforts américains et européens visant à réglementer ce jeune domaine technologique. Plusieurs photographies, fausses et perfectionnées, sont devenues virales ces derniers mois. L'une, prêtant à sourire, montrait le pape François en "doudoune", une énorme veste blanche rembourrée de duvet.

L'autre, plus sérieuse, avait soi-disant immortalisé une arrestation de l'ancien président des Etats-Unis Donald Trump. Mais bien plus répandue est l'utilisation de ces algorithmes pour générer des contenus pornographiques, à l'insu des intéressés ciblés, dont les vies en sont parfois détruites, estiment des experts. Et les femmes en sont les premières victimes. "L'essor du porno généré par l'IA normalise l'utilisation de l'image ou de la ressemblance d'une femme sans son consentement", souligne auprès de l'AFP Sophie Maddocks, chercheuse à l'université de Pennsylvanie qui suit les abus sexuels liés à l'image. "En tant que société, quel message envoyons-nous sur le consentement lorsque vous pouvez virtuellement déshabiller n'importe quelle femme ?", interroge-t-elle.

QTCinderella, une streameuse américaine de Twitch, l'a appris à ses dépens : elle a raconté dans une vidéo avoir été harcelée après l'utilisation pornographique de son image en déplorant, en larmes, "l'exploitation et l'objectivation constantes" des femmes. Elle a déclaré sur Twitter que cette expérience l'avait "anéantie".

Désinformation