Le shadow IT à l'heure de l'IA, c'est avant tout des pratiques et initiatives individuelles : copier-coller des données sensibles dans ChatGPT, envoyer des fichiers via des boites e-mails personnelles ou encore utiliser des outils tiers sans validation ou consultation préalable de la DSI. Finalement, "le shadow IT, c'est le nom que l’on donne à l'inventivité des utilisateurs pour trouver des solutions quand on ne leur en fournit pas", explique Michel Cazenave, CISO chez PwC. Face aux restrictions mises en place par leur entreprises sur des solutions comme ChatGPT, les collaborateurs n’hésitent plus à contourner les interdictions.
Cette tendance ne concerne pas que les employés isolés. Les directions métiers adoptent en toute autonomie des solutions de GenAI spécifiques, sans prévenir leur DSI. "On retrouve un peu les mêmes phénomènes qu'on a eu à l'époque du cloud ou avec le shadow IT tout court. Maintenant avec l’IA, des divisions de métiers sont approchées directement par des fournisseurs de services qui leur vendent des IA génératives métiers", alerte Sébastien Verger, CTO de Dell France.
Le constat est implacable. Sébastien Verger ajoute : “selon les études, plus de 85 % des utilisateurs ont déjà utilisé des IA génératives en dehors des outils approuvés par leur entreprise”. Une explosion du shadow IT, renommée "shadow AI" pour l’occasion, qui expose les entreprises.
Les conséquences de ce shadow AI sont considérables. Le premier danger : la fuite de données sensibles. L’IA générative capitalise sur les entrées de ses utilisateurs. Or, dès qu’un collaborateur copie-colle un fichier ou un extrait de code dans un LLM, il perd tout contrôle sur sa diffusion. “Samsung et Amazon se sont rendus compte qu’ils avaient des informations potentiellement de l’entreprise qui étaient directement dans la base de connaissance de ChatGPT”, rappelle Sébastien Verger.
Le secteur de la cybersécurité s’alarme aussi d’un risque inédit lié au développement. “Avant, un développeur en panne allait chercher des réponses sur Stack Overflow. Aujourd’hui, il copie son code dans ChatGPT”, observe Hubert Loiseau, DSI et RSSI au Campus Cyber. Mais cette facilité a un prix : “ce code, parfois propriétaire, peut ressortir ailleurs. Et pire, l’IA peut générer des réponses erronées ou vulnérables.”
Les failles de sécurité logicielles deviennent ainsi un nouveau vecteur de compromission. “On va avoir tendance à faire confiance plus facilement à un LLM”, prévient Michel Cazenave. Un risque d’autant plus préoccupant que ces pratiques peuvent échapper aux processus de revue de code traditionnels.
Alors comment les DSI peuvent-elles prendre en compte ce nouveau risque ? La bonne nouvelle, c’est que des canaux de sensibilisation ont déjà été mis en place précédemment avec l’arrivée, par exemple, du BYOD ou des solutions SaaS. Le plan tient donc en trois actes connus :
Last but not least, l’adoption d’IA souveraines et contrôlées devient un enjeu stratégique. “Un modèle LLM français ou européen peut offrir plus de garanties sur la gestion des données”, rappelle Hubert Loiseau.
If you often open multiple tabs and struggle to keep track of them, Tabs Reminder is the solution you need. Tabs Reminder lets you set reminders for tabs so you can close them and get notified about them later. Never lose track of important tabs again with Tabs Reminder!
Try our Chrome extension today!
Share this article with your
friends and colleagues.
Earn points from views and
referrals who sign up.
Learn more