Quantcast
Viewing all articles
Browse latest Browse all 4144

Quand l’ASCII art montre les limites des sécurités des IA génératives

******** ******* ** ** ******** ** ** ** ** *** *** ** ** ** ** ** ** **** **** ** ** ******** ** ** ** *** ** ******** ** ** ** ** ** ** ** ** ** ** ** ** ** ** ** ** ******** ******* ** ** ********
Image may be NSFW.
Clik here to view.
Hacking IA en ASCII

Des chercheurs ont montré que les systèmes de sécurité de cinq IA génératives majeures pouvaient être facilement contournés en remplaçant les mots censurés par des mots écrits en ASCII art puis retranscrits par la machine.

GPT-3.5, GPT-4, Gemini, Claude, et Llama2 sont cinq grands modèles de langage capables de reconnaître des mots dans les ASCII arts. Mais des chercheurs se sont emparé de cette capacité pour éviter le contrôle des systèmes de sécurité mis en place par OpenAI, Google, Anthropic et Meta.

Dans un article mis en ligne sur la plateforme de preprints arXiv, Fengqing Jiang et ses collègues montrent qu’il est possible de contourner les systèmes de sécurité de ces modèles de langage en écrivant le mot bloqué en ASCII art.

Cette forme d’art numérique, qui consiste à réaliser des images en utilisant des caractères ASCII en vogue déjà dans les années 60, pourrait être un des talons d’Achille des grands modèles de langage.

Une sécurité au niveau sémantique peu élevé


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.


Viewing all articles
Browse latest Browse all 4144

Trending Articles