Quantcast
Viewing all articles
Browse latest Browse all 3752

IA : la déconstruction du mythe du « plus c’est gros, mieux c’est »

Tu sais ce qu'il te dit le cassis ?
Image may be NSFW.
Clik here to view.
IA :  la déconstruction du mythe du « plus c’est gros, mieux c’est »

Alors que Sam Altman a publié un billet promettant un avenir radieux grâce à une IA « requérant beaucoup d’énergie et de puces », les chercheuses Sasha Luccioni et Meredith Whittaker et leur collègue Gaël Varoquaux ont résumé les critiques d’une R&D de l’IA qui ne compte presque que sur l’augmentation de la puissance des machines pour avancer.

La semaine dernière, Sam Altman a publié un billet dans lequel il imagine un futur où le monde partage une « prospérité à un degré qui semble inimaginable aujourd’hui » et dans lequel « la vie de chacun pourra être meilleure que la vie actuelle de n’importe qui ». Ceci, évidemment, grâce à l’IA. Pour cela, affirme le CEO d’OpenAI, « nous devons réduire le coût du calcul et le rendre abondant (ce qui nécessite beaucoup d’énergie et de puces) ».

Mais il menace : « si nous ne construisons pas suffisamment d’infrastructures », donc si son industrie ne reçoit pas assez de financements, « l’IA sera une ressource très limitée qui fera l’objet de guerres et deviendra principalement un outil pour les riches ».

Dévitalisé de ses apparats prophétiques, ce discours s’inscrit dans une longue série de plaidoyers pour une Recherche & développement (R&D) de l’IA qui avancerait par de simples coups/coûts d’augmentation des performances des machines. Alors qu’on commence à connaître un peu mieux l’impact environnemental de l’IA générative, cette vision est dénoncée par trois chercheurs très connus dans le milieu : Sasha Luccioni qui travaille pour Hugging Face, Meredith Whittaker chercheuse à l’Université d’Australie-Occidentale mais aussi Présidente de la fondation Signal, et Gaël Varoquaux, chercheur à Inria.

Une prétendue corrélation vieille de 12 ans

Dans un article (un « position paper » titré « Hype, Sustainability, and the Price of the Bigger-is-Better Paradigm in AI ») mis en ligne sur arXiv deux jours avant la publication du billet de Sam Altman, ces trois chercheurs expliquent que cette idée s’est disséminée dans le milieu de l’IA depuis l’arrivée en 2012 d’une certaine architecture de réseau neuronal convolutif : « AlexNet a créé la recette de l’actuel paradigme « bigger-is-better » de l’IA, en combinant les GPU, les big data (du moins pour l’époque) et les approches s’appuyant sur les réseaux neuronaux à grande échelle ».


Il reste 77% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.


Viewing all articles
Browse latest Browse all 3752

Trending Articles