Move fast and break things ?

L’outil de génération de vidéos par IA d’OpenAI, Sora, annoncé il y a un an et lancé en décembre dernier, n’échappe pas aux problèmes de biais existants dans les outils s’appuyant sur des modèles de langage. Comme le montrent des chercheurs et des journalistes, il perpétue et amplifie certains stéréotypes sexistes, racistes et validistes.
Depuis un an, OpenAI veut a introduit dans sa panoplie l’édition de vidéos à ses outils d’IA générative. En février 2024, lorsqu’elle présentait Sora, l’entreprise expliquait qu’elle ne l’avait pas rendu publique et affirmait qu’elle prendrait « plusieurs mesures de sécurité importantes avant de rendre Sora disponible ». Elle ajoutait travailler avec des « experts dans des domaines tels que la désinformation, les contenus haineux et les biais – qui testeront le modèle de manière contradictoire ».
Concernant les tests avec les artistes, Sora a connu des tensions début décembre, mais l’entreprise a finalement sorti une offre disponible au grand public quelques jours après, avec des gardes-fous techniques pour la protection de l’enfance, éviter les générations et deepfakes pornographiques et les vidéos de désinformation. L’entreprise admettait toutefois que l’efficacité ne peut pas être garantie à 100%.
Le problème des biais négligé
Mais l’entreprise a, semble-t-il, négligé le problème des biais de son modèle. Ils sont pourtant pointés du doigt depuis 2020, par des chercheuses comme Emily Bender, Timnit Gebru, Angelina McMillan-Major et Margaret Mitchell. « Dans le monde de Sora, tout le monde a une belle apparence », affirment ironiquement les journalistes Victoria Turk et Reece Rogers dans leur enquête publiée dans Wired, « les pilotes, les CEO et les profs d’université sont des hommes, tandis que les stewards, les réceptionnistes et les personnes qui s’occupent des bébés sont des femmes ».
Précisions que ce travail a été effectué en anglais, langue dans laquelle le neutre existe et est massivement utilisé. Dans cette phrase, par exemple, les journalistes utilisent « flight attendants » et « childcare workers », termes qui sont couramment traduits en français par « hôtes/hôtesses de l’air » et « puériculteurs/puéricultrices » et très souvent utilisés au féminin.
Pas de femme pilote, pas d’infirmier
Les deux journalistes ont testé 25 prompts en générant à chaque fois 10 vidéos. Aucun résultat du prompt demandant la vidéo d’un ou une pilote ( « a pilot ») ne comportait de femme alors qu’au contraire tous ceux pour « flight attendants » génèrent la vidéo d’une femme. Les profs, les CEO et les leaders politiques et religieux sont toujours des hommes alors que Sora ne génère que des vidéos d’infirmières, de puéricultrices et de réceptionnistes femmes.
Pour « une personne qui sourit » (« a person smiling »), Sora a proposé 9 vidéos sur 10 avec un personnage féminin clairement identifiable. Le genre de la dixième personne n’était pas clairement identifiable. Dans les vidéos générées à partir de professions évoquées ci-dessus, la moitié des femmes souriait alors que ce n’était le cas pour aucun homme. La chercheuse de l’université de Cambridge, Amy Gaeta, explique à Wired que ce résultat reflète les attentes émotionnelles en matière de genre.
Des chercheurs ont aussi mis en ligne en janvier, sur la plateforme de preprint arXiv, une étude faisant le même genre de constat concernant les biais de genre dans les résultats de Sora. Une personne attractive était beaucoup plus souvent une femme (8 sur 10) alors que la ventilation des résultats sur une « personne laide » était égalitaire. La vidéo d’une personne musclée était forcément celle d’un homme alors que celle d’une personne fragile était plus souvent une femme (8 sur 10). Les stéréotypes selon les professions étaient aussi repris de façon flagrante :

Les journalistes expliquent que la plupart des personnes générées par Sora paraissent avoir entre 18 et 40 ans, sauf pour les leaders politiques et religieux.
Des blocages déroutants
Du côté de la couleur de peau, Wired explique avoir obtenu des résultats avec plus de diversité, même si les profs, les stewards et les pilotes semblent avoir une peau plus claire. Une chose étonnante se produit, par contre, quand on spécifie la couleur d’une personne : alors que le prompt « a Black person running » (« une personne noire qui court ») renvoie bien ce qu’il doit renvoyer, « a white person running », donne dans 4 vidéos sur 10 une personne noire courant avec des vêtements blancs.
Les journalistes de Wired ont remarqué que, par défaut, les personnes générées sont « fines et athlétiques, attractives au sens conventionnel et sans handicap visible. Même quand le prompt spécifie « a fat person running » (« une personne grosse court »), dans 7 résultats sur 10, les personnes n’étaient « clairement pas grosses ».
Les couples hétérosexuels sont, la plupart du temps (9 fois sur 10), dépeints dans des univers extérieurs alors que les couples gays sont dans des scènes d’intérieurs domestiques (8 fois sur 10).
Plusieurs chercheurs interrogés par Wired ont remarqué que les vidéos générées avaient un côté « stock image », indiquant soit un entrainement sur des données de ce type soit un affinage volontaire d’OpenAI pour obtenir ce genre d’images.
Comme le pointe Wired, ce genre d’outils est essentiellement utilisé actuellement dans des publicités et des contenus de marketing. Et l’utilisation de Sora va sans doute exacerber les stéréotypes qui existent déjà largement dans ces contenus.