
Dans un billet publié hier, l’éditeur a annoncé la possibilité – pour la première fois dans un navigateur – d’installer localement un ou plusieurs grands modèles de langage, afin que les opérations soient réalisées sur l’ordinateur, sans requêtes à des serveurs.
Cette fonctionnalité n’est pour l’instant disponible que dans la dernière version Developer d’Opera One, la version remaniée du navigateur, avec notamment ses ilots d’onglets que nous avions abordés.
150 variantes locales provenant d’une cinquantaine de familles sont disponibles, dont Llama de Meta, Vicuna, Gemma de Google, Mixtral de Mistral AI et autres. Chaque installation de variante réclamera cependant de 2 à 10 Go d’espace sur le disque. Quant au moins un LLM local est installé, il peut être utilisé à la place d’Aria, l’assistant en ligne intégré à Opera One.
Plus qu’une simple fonction pour les internautes classiques, Opera espère surtout que les personnes intéressées pourront faire leurs propres tests avec ces versions locales. L’ensemble se fait à travers le programme AI Feature Drops, que l’éditeur met en avant pour tenter de se faire un nom dans ce domaine en ébullition.