Migrer en douceur d’un grand modèle de langage à un petit modèle

Ce projet présente une pipeline LLMOps permettant d’affiner un petit modèle de langage pour se préparer à la panne éventuelle du service LLM utilisé. Il montre comment migrer en douceur d’un grand modèle de langage à un petit modèle, tout en conservant les performances souhaitées. Le projet s’appuie sur l’écosystème open source de Hugging Face et l’API Gemini, et implémente des fonctionnalités comme la gestion de la concurrence et de la limitation des taux d’appel.

Points clés

  • Le projet vise à montrer qu’un petit modèle de langage peut offrir des performances comparables à un grand modèle de service sur une tâche spécifique
  • Il permet de se préparer à remplacer un service LLM pour diverses raisons : panne, problème de confidentialité des données, absence de connexion internet, etc.
  • Le projet fournit un ensemble d’outils pour l’inférence par lots, l’évaluation et la génération de données synthétiques
  • Il utilise l’alignment-handbook de Hugging Face pour affiner le petit modèle de langage
  • Le projet s’appuie sur l’API Gemini comme “professeur” pour le petit modèle, mais peut être adapté à d’autres grands modèles
  • Des scripts sont prévus pour exécuter l’affinage sur le cloud (dstack Sky pour le moment)
  • Le projet est conçu comme un modèle à faire évoluer selon les besoins spécifiques de chaque utilisateur

À retenir

Ce projet offre une solution pratique et évolutive pour se préparer à l’obsolescence des grands modèles de langage de service. En migrant vers un petit modèle affiner, les entreprises peuvent garantir la pérennité de leurs applications tout en conservant les performances souhaitées. Bien sûr, il faudra encore un peu de travail pour adapter le projet à ses propres besoins, mais cela en vaut clairement la peine pour éviter les désagréments d’une panne de service LLM à l’avenir !

Sources