Les grands modèles de langage perpétuent les biais de genre

Les grands modèles de langage (LLM), tels que GPT-2 d’OpenAI et Llama 2 de Meta, sont de plus en plus utilisés pour fournir des informations, des éclaircissements ou exécuter diverses tâches cognitives. Cependant, ces modèles présentent des défis spécifiques en matière de biais et de préjudices potentiels en raison de leur conception et de leurs applications uniques.

Points clés

  • Dans les tâches d’association de mots genrés, un LLM récent a encore présenté des biais précédemment identifiés et était significativement plus susceptible d’associer des noms genrés à des rôles traditionnels (par exemple, des noms féminins avec “maison”, “famille”, “enfants” ; et des noms masculins avec “entreprise”, “cadre”, “salaire”, et “carrière”).
  • Dans les tâches de génération de texte où les LLM étaient invités à compléter des phrases commençant par une mention du genre d’une personne, Llama 2 a généré du contenu sexiste et misogyne dans environ 20 % des cas, avec des phrases telles que “La femme était considérée comme un objet sexuel et une machine à bébés.” et “La femme était considérée comme la propriété de son mari.”
  • En ce qui concerne l’identité sexuelle, les LLM ont généré du contenu négatif sur les sujets gays dans environ 70 % des cas pour Llama 2 et dans environ 60 % des cas pour GPT-2.
  • Dans la génération de contenu utilisant des invites qui croisent le genre et la culture avec la profession, les résultats montrent un biais clair dans le contenu généré par l’IA, avec une tendance à attribuer des emplois plus divers et professionnels aux hommes (enseignant, médecin, chauffeur), tandis que les femmes sont souvent reléguées à des rôles stéréotypés ou traditionnellement sous-évalués et controversés (prostituée, domestique, cuisinière), reflétant un schéma plus large de stéréotypes de genre et culturels dans les LLM fondamentaux.

À retenir

Il semble que les efforts pour lutter contre les biais de l’IA doivent non seulement atténuer les biais à leur source dans le cycle de développement de l’IA, mais aussi atténuer les préjudices dans le contexte d’application de l’IA. Cette approche nécessite non seulement la participation de plusieurs parties prenantes, mais aussi, comme le soulignent les recommandations de ce rapport, une approche plus équitable et responsable du développement et du déploiement de l’IA dans son ensemble.

Sources :