Quand l’IA génère des données inexactes sur les individus

Cet article analyse les problèmes liés à l’utilisation de ChatGPT, le chatbot d’OpenAI, qui génère parfois des informations fausses sur les individus. Malgré les obligations légales en matière de protection des données personnelles, OpenAI semble incapable de garantir l’exactitude des données produites par son outil. Cela soulève des questions sur la conformité de ChatGPT avec le RGPD européen et les droits des personnes concernées.

Points clés

  • ChatGPT ne fait que prédire les mots les plus probables pour répondre à une requête, sans garantie d’exactitude
  • Les outils d’IA génératrice sont connus pour “halluciner”, c’est-à-dire inventer des réponses
  • Le RGPD exige que les données personnelles soient exactes et que les personnes puissent demander leur rectification
  • ChatGPT a fourni des informations inexactes sur l’anniversaire d’un plaignant, qu’OpenAI a refusé de corriger
  • OpenAI n’a pas non plus répondu correctement à la demande d’accès aux données du plaignant
  • Les autorités de protection des données européennes s’intéressent de près aux problèmes de ChatGPT

À retenir

Il est clair que les entreprises comme OpenAI ne sont pas encore en mesure de garantir la conformité de leurs outils d’IA génératrice aux exigences légales en matière de protection des données personnelles. Tant que ces problèmes d’exactitude et de transparence ne seront pas résolus, l’utilisation de ChatGPT et d’autres systèmes similaires pour traiter des informations sur les individus reste très problématique. Mais bon, ce n’est sûrement qu’un détail, ces entreprises innovantes trouveront bien une solution miracle, non ?

Sources