Depuis le lancement de ChatGPT en novembre 2022, l’IA générative (genAI) a connu une adoption rapide par les entreprises. Selon les chercheurs du Netskope Threat Labs, en juin 2024, 96 % des organisations utilisaient différents types d’applications genAI. Cette adoption généralisée transforme la façon dont les entreprises fonctionnent, mais un grand pouvoir s’accompagne de grandes responsabilités et de risques.
L’épée à double tranchant de genAI
GenAI offre de nombreux avantages. Par exemple, les outils genAI révolutionnent la productivité en facilitant le codage, la création de contenu et l’analyse des données. Ces outils peuvent automatiser les tâches répétitives, favoriser l’innovation et fournir aux employés de nouvelles capacités qui stimulent l’efficacité et la créativité. Cependant, l’utilisation élevée de genAI comporte également des risques importants, qui nécessitent une gestion attentive.
Le nouveau rapport de Netskope Threat Labs sur l’IA met l’accent sur plusieurs préoccupations concernant la sécurité des données et l’utilisation abusive des technologies d’IA. L’un des problèmes les plus urgents est la fuite de données.
La fuite de données est le partage d’informations sensibles avec des outils genAI qui entraînent des fuites de données involontaires, exposant une propriété intellectuelle précieuse et compromettant la sécurité des systèmes propriétaires. Le rapport révèle que le partage de code source propriétaire avec les applications genAI représente 46 % de toutes les violations de la politique de données de genAI identifiées par la plateforme DLP (Prévention des pertes de données) de Netskope.
Imaginons qu’un ingénieur logiciel d’une multinationale technologique utilise une application genAI pour optimiser le code. Sans s’en rendre compte, l’ingénieur partage un morceau de code propriétaire qui contient des algorithmes sensibles. Ce code pourrait être consulté par des parties non autorisées, ce qui entraînerait des violations de données potentielles et un désavantage concurrentiel.
(Vous pouvez en savoir plus sur certains des problèmes ici dans cet épisode du podcast Security Visionaries, où Suzanne Oliver, avocate en propriété intellectuelle, Neil Thacker, DSSI et Yihua Liao, responsable d’AI Labs, discutent des implications de l’IA).
Recommandations générales :
Pour se protéger contre ces risques, les organisations doivent :
→ Examinez régulièrement l’activité, les tendances, les comportements et la sensibilité des données des applications d’IA pour identifier les menaces potentielles.
→ Bloquer l’accès aux applications qui ne servent pas à des fins commerciales légitimes ou qui présentent un risque disproportionné
→ Utilisez les stratégies de prévention des pertes de données pour détecter le contenu/les invites contenant des informations sensibles, y compris le code source, les données réglementées et les mots de passe
Équilibre entre innovation et sécurité
Bien que genAI soit synonyme d’efficacité et d’innovation, des débats sont en cours sur la bonne façon de contrôler l’utilisation de certaines applications de genAI. Par exemple, beaucoup essaient de déterminer si le blocage de l’accès à certaines applications, telles que GitHub Copilot, est vraiment une mesure de sécurité appropriée ou si le coût de la perte des avantages en matière de productivité est trop élevé.
Et ces préoccupations sont légitimes. Bloquer de telles applications n’est peut-être pas la meilleure approche. Les organisations doivent plutôt consulter le Netskope Cloud Confidence Index (CCI) pour décider quelles applications autoriser et lesquelles restreindre, en fonction de leurs profils de sécurité et de conformité. Les applications sont évaluées sur la base de critères objectifs adaptés des directives de la Cloud Security Alliance. Ces critères mesurent l’état de préparation des applications à l’entreprise, en tenant compte des informations d’identification de sécurité, de la capacité d’audit et de la continuité d’activité.
Au moment de la rédaction de cet article, GitHub Copilot a actuellement un score CCI élevé de 80 (sur 100 ; rappelez-vous que ce nombre est dynamique), indiquant un niveau de fiabilité supérieur à la moyenne, cependant, 19 % des organisations qui utilisent des applications genAI ont placé une interdiction complète de GitHub Copilot. La mise en œuvre de contrôles plus granulaires pour surveiller son utilisation et garantir la conformité des données, au lieu d’imposer un blocage général, pourrait permettre aux organisations de bénéficier de ses capacités tout en atténuant les risques.
Naviguer vers l’avenir
L’IA générative recèle un potentiel incroyable pour stimuler l’innovation et l’efficacité dans les entreprises. Cependant, il est crucial d’être conscient des risques associés et de s’efforcer de les réduire. En comprenant les menaces, telles que les fuites de données et les deep fakes, et en mettant en œuvre des mesures de sécurité robustes, les organisations peuvent exploiter en toute sécurité la puissance de genAI.
Restez informé et restez en sécurité. Lisez le rapport complet de Netskope Threat Labs pour doter votre entreprise des connaissances dont elle a besoin pour naviguer dans l’avenir de l’IA. Accédez à l’intégralité du rapport sur le cloud et les menaces : les applications d’IA dans l’entreprise ici.