L’homme réseau-neuronal : Les larges modèles de langage et l’illusion de l’augmentation

LLMProductivitéScience

L’illusion de l’augmentation par les LLM

Dans un contexte où de nombreuses professions sont “augmentées” grâce aux larges modèles de langage (LLM), Etienne Grass, enseignant à Sciences Po, met en garde contre la pensée magique qui entoure cette rhétorique de l’augmentation.

Points clés

  • Les larges modèles de langage (LLM) ont “augmenté” diverses professions, mais leur impact réel est difficile à évaluer.
  • L’utilisation du terme “augmentation” reflète notre embarras face à l’évaluation de l’impact des LLM et à l’extrapolation de mesures de productivité peu reproductibles.
  • L’exemple de GPT-4, capable de traiter 100 fois plus de connaissances qu’un cerveau humain avec seulement 2 % de sa capacité de calcul, illustre cette pensée magique.

À retenir

Méfions-nous de la pensée magique qui entoure les larges modèles de langage et leur prétendue capacité à “augmenter” les professions. Il est crucial d’évaluer leur impact réel et de ne pas se laisser berner par des termes séduisants mais vagues.

Sources :