L’IA soulève des questions de protection des données et de confidentialité

Luiza Jarovsky analyse les enjeux de l’IA en matière de protection des données personnelles

Luiza Jarovsky, experte en IA et en réglementation, analyse les récentes déclarations de l’autorité de protection des données de Hambourg concernant l’impact de l’IA sur la protection des données personnelles. Elle souligne que la collecte de données lors de l’entraînement des modèles de langage doit également respecter le RGPD, malgré les affirmations de l’autorité de Hambourg. Cet article met en lumière les défis à relever pour assurer une utilisation éthique et responsable de l’IA.

Points clés

  • L’autorité de protection des données de Hambourg a déclaré que le simple stockage d’un modèle de langage ne constitue pas un traitement de données personnelles au sens du RGPD
  • Luiza Jarovsky est en désaccord avec cette position, estimant que la collecte de données lors de l’entraînement des modèles doit également respecter le RGPD
  • Le RGPD s’applique dès lors qu’il y a un traitement de données personnelles, or la collecte de données constitue également un traitement
  • Le rapport du groupe de travail du CEPD souligne également que l’entraînement de l’IA nécessite une base juridique au titre du RGPD
  • L’autorité de protection des données néerlandaise a récemment déclaré que le scraping de données est presque toujours illégal car il doit respecter le RGPD

À retenir

Les modèles de langage doivent respecter le RGPD, y compris lors de la phase d’entraînement qui implique la collecte de données personnelles. Affirmer que l’entraînement des modèles de langage n’a pas besoin d’être conforme au RGPD porte gravement atteinte à la protection des données à l’ère de l’IA. Les régulateurs doivent veiller à ce que le développement de l’IA se fasse dans le respect des principes de protection des données.

Sources