L'IA et dans la Pomme
Si Apple a sorti récemment sa famille de modèles de langage DCLM de façon très ouverte, ce n’est pas le cas de ses modèles de fondation utilisés par Apple Intelligence. La WWDC passée, l’entreprise communique un peu plus sur les spécificités techniques de ces modèles.
Apple avait publié le 10 juin un communiqué décrivant ses modèles de fondation tournant sur serveur et sur ses appareils, mais sans donner beaucoup d’informations.
Un mois et demi après, les chercheurs de l’entreprise ont voulu entrer un peu plus dans les détails. La firme a mis en ligne un « papier » (.PDF), sans pour autant entrer dans la boucle du processus scientifique via une plateforme de preprint et encore moins en publiant un article dans une revue.
Pourtant, les chercheurs d’Apple connaissent bien ce processus, puisqu’ils l’ont utilisé encore très récemment pour la famille de modèles de langage DCLM (DataComp for Language Models).
Des modèles spécialisés
Pas non plus de publication sur Hugging Face pour les modèles ni pour les données d’entrainement. Mais le fichier pdf contient quand même pas mal de nombreuses informations sur l’architecture mise en place par Apple et sur les modèles de l’entreprise. Ce texte permet aussi de comprendre un peu ce que l’entreprise met derrière le terme « Apple Intelligence ».
Il reste 89% de l'article à découvrir. Abonnez-vous pour ne rien manquer.
Déjà abonné ? Se connecter