L’essor de l'”IA fantôme” met les entreprises face à de nouveaux défis

Alors que l’adoption de l’IA en entreprise connaît une croissance exponentielle, les employés utilisent de plus en plus des outils d’IA sans l’approbation ou même la connaissance de leurs services informatiques. Cette “IA fantôme” comporte des risques importants pour la confidentialité et l’intégrité des données de l’entreprise. Le rapport de Cyberhaven Labs révèle que près de 75% des comptes d’outils d’IA populaires comme ChatGPT sont des comptes personnels, échappant ainsi aux contrôles de sécurité des versions entreprise. De plus, une part croissante des données sensibles de l’entreprise se retrouve dans ces outils non autorisés, menaçant la propriété intellectuelle et les informations confidentielles.

Points clés

  • L’utilisation de l’IA en entreprise a augmenté de 485% entre mars 2023 et mars 2024
  • ChatGPT reste l’application d’IA la plus utilisée au travail, mais les produits d’OpenAI, Google et Microsoft représentent 96% de l’utilisation totale
  • Le secteur technologique est celui qui adopte le plus l’IA, avec 23,6% de ses employés utilisant des outils d’IA
  • Seulement 5,2% des employés des médias et du divertissement, 4,7% de la finance et 2,8% de la pharmacie utilisent l’IA
  • 73,8% des comptes ChatGPT utilisés au travail sont des comptes personnels, sans les contrôles de sécurité des versions entreprise
  • 27,4% des données d’entreprise envoyées à l’IA en mars 2024 étaient sensibles, contre 10,7% un an plus tôt
  • Les données les plus sensibles envoyées à l’IA sont les dossiers clients, le code source et les documents de recherche et développement

À retenir

L’adoption galopante de l’IA en entreprise, menée par les employés eux-mêmes, met les services informatiques et de sécurité face à de nouveaux défis. Avec près des trois quarts des outils d’IA utilisés via des comptes personnels et près d’un tiers des données envoyées étant sensibles, les entreprises doivent rapidement mettre en place des politiques et des contrôles pour encadrer l’utilisation de l’IA. Sinon, elles risquent de voir leurs informations confidentielles se répandre bien au-delà de leurs murs.

Sources