Desde el lanzamiento de ChatGPT en noviembre de 2022, la IA generativa (genAI) ha experimentado una rápida adopción empresarial. Según los investigadores del Netskope Threat Labs, a partir de junio de 2024, un asombroso 96% de las organizaciones utilizan varios tipos de aplicaciones de inteligencia artificial. Esta adopción generalizada está transformando la forma en que operan las empresas, pero un gran poder conlleva una gran responsabilidad y un gran riesgo.
El arma de doble filo de genAI
GenAI ofrece numerosos beneficios. Por ejemplo, las herramientas de genAI están revolucionando la productividad al ayudar con la codificación, la creación de contenido y el análisis de datos. Estas herramientas pueden automatizar tareas repetitivas, fomentar la innovación y proporcionar a los empleados capacidades nuevas que impulsan la eficiencia y la creatividad. Sin embargo, el alto uso de genAI también conlleva riesgos significativos, que requieren una gestión atenta.
El Nuevo Netskope Threat Labs AI Informe hace hincapié en varias preocupaciones en torno a la seguridad de los datos y el uso indebido de las tecnologías de IA. Uno de los problemas más acuciantes es la fuga de datos.
La fuga de datos es el intercambio de información confidencial con herramientas de genAI que conduce a una fuga de datos involuntaria, exponiendo propiedad intelectual valiosa y comprometiendo la seguridad de los sistemas propietarios. El Informe revela que el uso compartido de código fuente propietario con aplicaciones de genAI representa el 46% de todas las violaciones de datos de genAI identificadas por NetskopeDLP Plataforma.
Considere un escenario en el que un ingeniero de software de una empresa tecnológica multinacional utiliza una aplicación genAI para optimizar el código. Sin darse cuenta, el ingeniero comparte un fragmento de código propietario que contiene algoritmos sensibles. Partes no autorizadas podrían acceder a este código, lo que podría provocar posibles violaciones de datos y una desventaja competitiva.
(Puede obtener más información sobre algunos de los problemas aquí en este episodio del podcast Security Visionaries, donde la abogada de propiedad intelectual Suzanne Oliver, el director de seguridad de la información Neil Thacker y el líder de AI Labs, Yihua Liao, analizan las implicaciones de la IA).
Recomendaciones generales:
Para protegerse contra estos riesgos, la Organización debe:
→ Revise periódicamente la actividad, las tendencias, los comportamientos y la confidencialidad de los datos de las aplicaciones de IA para identificar posibles amenazas
→ Bloquear el acceso a aplicaciones que no sirvan para fines comerciales legítimos o que representen un riesgo desproporcionado
→ Utilice la política de prevención de pérdida de datos para detectar contenido o avisos que contengan información confidencial, incluido el código fuente, los datos regulados y las contraseñas
Equilibrio entre innovación y seguridad
Si bien la genAI aporta eficiencia e innovación, existen debates en curso sobre la forma correcta de controlar el uso de ciertas aplicaciones de genAI. Por ejemplo, muchos están tratando de determinar si bloquear el acceso a ciertas aplicaciones, como GitHub Copilot, es realmente una medida de seguridad adecuada o si el costo de perder las ventajas de productividad es demasiado grande.
Y estas preocupaciones son válidas. Es posible que el bloqueo de dichas aplicaciones no sea el mejor enfoque. Más bien, la Organización debe consultar al Netskope Cloud Confidence Index (CCI) para ayudar a decidir qué aplicaciones permitir y cuáles restringir, en función de sus perfiles de seguridad y cumplimiento. Las aplicaciones se evalúan en función de criterios objetivos adaptados de la Guía de Cloud Security Alliance. Estos criterios miden la preparación empresarial de las aplicaciones, teniendo en cuenta las credenciales de seguridad, la capacidad de auditoría y la continuidad del negocio.
Al momento de escribir este artículo, GitHub Copilot actualmente tiene un puntaje de CCI alto de 80 (sobre 100; recuerde que este número es dinámico), lo que indica un nivel de confiabilidad superior al promedio, sin embargo, el 19% de las organizaciones que usan aplicaciones genAI, han impuesto una prohibición completa a GitHub Copilot. La implementación de controles más granulares para monitorear su uso y garantizar el cumplimiento de los datos, en lugar de imponer un bloqueo general, podría permitir que la organización se beneficie de sus capacidades al tiempo que mitiga los riesgos.
Navegando por el futuro
La IA generativa tiene un potencial increíble para impulsar la innovación y la eficiencia en las empresas. Sin embargo, es crucial ser consciente de los riesgos asociados y trabajar para reducirlos. Al comprender las amenazas, como la fuga de datos y los deep fakes, y al implementar medidas de seguridad sólidas, Organización puede aprovechar de manera segura el poder de la inteligencia artificial.
Manténgase informado y seguro. Lea el Informe Netskope Threat Labs completo para dotar a su empresa de los conocimientos que necesita para navegar por el futuro de la IA. Acceda al informe completo sobre la nube y las amenazas: aplicaciones de IA en la empresa aquí.