
L’ingénieur Shane Jones, qui travaille sur les intelligences artificielles de Microsoft depuis six ans, a envoyé [PDF] ce mercredi 6 mars une lettre ouverte à la Federal Trade Commission (FTC) ainsi qu’une autre au Conseil d’administration de Microsoft pour leur faire part de ses préoccupations concernant l’IA générative d’image de l’entreprise, explique CNBC.
Le média américain raconte que l’ingénieur qui appartient à la « red team » testant Copilot Designer est devenu malade en voyant les images générées. L’ingénieur a vu l’IA associer des démons et des monstres à une terminologie sur les droits à l’avortement, mais aussi « des adolescents armés de fusils d’assaut, des images sexualisées de femmes dans des tableaux violents, la consommation d’alcool et de drogues par des mineurs ». Le média a pu recréer ces scènes avec l’outil.
Shane Jones ne travaille pas sur l’outil en question, mais teste sur son temps libre l’outil en tant que membre de la « red team » de l’entreprise. Il aurait signalé les problèmes en interne en décembre mais l’entreprise n’aurait pas voulu retirer le produit. Il a déclaré à CNBC que Microsoft l’aurait réorienté vers OpenAI mais que la startup ne lui a pas répondu.
Il a alors publié une lettre ouverte sur LinkedIn demandant à OpenAI de retirer Dall-E 3 du marché, mais le département juridique de Microsoft lui a demandé de la retirer, ce qu’il a fait.
Finalement, il s’est résolu à signaler le problème aux autorités compétentes : « je demande à la FTC de contribuer à informer le public sur les risques liés à l’utilisation de Copilot Designer. Ceci est particulièrement important pour les parents et les enseignants qui pourraient recommander à leurs enfants d’utiliser Copilot Designer pour des projets scolaires ou à d’autres fins éducatives », écrit-il dans sa lettre.