Artículo escrito conjuntamente por James Robinson y Jason Clark
Tan pronto como ChatGPT y el tema de la inteligencia artificial generativa (IA) se generalizaron, todos los líderes de tecnología empresarial comenzaron a hacer la misma pregunta.
¿Es seguro?
En Netskope, nuestra respuesta es sí—siempre y cuando estemos haciendo todo lo correcto con la protección de datos confidenciales y el uso responsable de la IA/ML en nuestras propias plataformas y productos, y transmitiendo de forma eficaz una comprensión de ese uso a nuestros clientes, clientes potenciales, partner, y terceros y cuartos proveedores para ayudar a crear programas que estén promovidos por la gobernanza.
La asignación administrada de ChatGPT y otras herramientas generativas de inteligencia artificial es una necesidad. Las organizaciones que simplemente "cierran" el acceso a él pueden sentirse inicialmente más seguras, pero también están negando los muchos usos productivos de ChatGPT y colocándose a sí mismos, y a todos sus equipos, detrás de la curva de innovación.
Concesión gestionada del uso de ChatGPT
Netskope se ha centrado profundamente en el uso productivo de la IA y el aprendizaje automático (ML) desde nuestra fundación en 2012, y muchas innovaciones de IA/ML—docenas de ellas patentadas—ya forman parte de nuestra plataforma Intelligent SSE. Nuestro equipo de Netskope AI Labs debate habitualmente sobre IA/ML e innovación en ciencia de datos con los clientes de Netskope y nuestra comunidad interna.
Como todos, acabamos de observar un punto de inflexión. Antes de noviembre de 2022, si no eras un profesional de la seguridad, desarrollador, científico de datos, futurista o entusiasta de la tecnología, probablemente no estabas haciendo mucho con IA generativa. Pero lo que ha ocurrido desde la publicación de ChatGPT es que estos servicios y tecnologías están ahora al alcance de cualquier profano en la materia. Cualquiera con un navegador puede entrar y entender lo que ChatGPT puede hacer.
Cuando algo es tan omnipresente que se convierte en el tema de conversación dominante en los negocios y la tecnología con tanta rapidez—y ChatGPT definitivamente lo es—los líderes tienen esencialmente dos opciones:
- Prohibir o limitar severamente su uso
- Crear una cultura que permita a la gente entender el uso de esta tecnología —y aceptarlo—sin poner en riesgo el negocio
En Netskope, permitimos el acceso responsable a ChatGPT a aquellos miembros de nuestro equipo que deberían tenerlo. Aquí, en los albores de la adopción generalizada de la IA generativa, vamos a ver al menos tanto comportamiento disruptivo como el que vimos en los albores del motor de búsqueda en línea hace décadas, y donde vimos diferentes amenazas y muchos datos puestos a disposición del público que realmente no deberían haberlo estado.
Pero recuerde: ahora, como entonces, la gran estrategia de seguridad es proteger los datos confidenciales para que no accedan a ellos fuentes que no deberían hacerlo. Hoy en día, con ChatGPT y otras aplicaciones de IA generativa, esto se puede hacer con la orientación cultural adecuada—es decir, permitirlo de forma responsable—combinada con la orientación tecnológica adecuada, es decir, controles modernos de prevención de pérdida/fuga de datos (DLP) que eviten el uso indebido y la filtración de datos al exterior, y que también formen parte de una infraestructura que permita a los departamentos responder rápidamente en caso de uso indebido de esos datos.
En un artículo de blog reciente, “Salvaguardas modernas de protección de datos para ChatGPT y otras aplicaciones generativas,” se aborda cómo la plataforma Netskope en concreto–y nuestra moderna DLP–ayuda a prevenir los riesgos cibernéticos inherentes a las aplicaciones IA generativa. Léalo para profundizar, pero, para resumir: su DLP debe ser capaz de establecer políticas a nivel de "esto nunca debe salir"—conjuntos de datos o cohortes que serían peligrosos para el negocio si se expusieran—y "esto no debería de salir", es decir, conjuntos de datos o cohortes que no desea que se vean comprometidos pero que no serían sustanciales para la interrupción del negocio.
La DLP avanzada de Netskope puede identificar automáticamente flujos de datos sensibles, categorizándolos con la máxima precisión. Esto incluye la clasificación de imágenes basada en IA/ML y la capacidad de crear clasificadores personalizados basados en ML, además de la aplicación en tiempo real—aplicable a cada conexión de usuario—que combina la detención selectiva de mensajes de información confidencial con mensajes visuales de orientación para ayudar a los usuarios a mejorar su comportamiento.
Así que, de nuevo la gran pregunta: ¿es seguro ChatGPT?
Sí. Con la mentalidad adecuada, la formación adecuada para los usuarios y la tecnología DLP adecuada y moderna para protegerle.
Unas palabras sobre el riesgo de terceras y cuartas partes
A medida que más empresas busquen permitir el uso productivo para el negocio de la IA generativa por parte de los empleados adecuados, más responsables de tecnología se plantearán preguntas aún más precisas sobre el riesgo relevante de terceras y cuartas partes.
Los copilotos, por ejemplo, verán una rápida adopción, pero ¿cuántas empresas en su proceso de licitación están pidiendo hoy a sus terceros y cuartos proveedores información crítica sobre cómo sus herramientas aprovechan los copilotos, o cualquier herramienta asociada a la IA? ¿Podría hoy, por ejemplo, identificar cuáles de sus proveedores han comunicado qué parte del código de su software ha sido escrito por una aplicación de IA o no? ¿Y puede revisarlo? Si sus proveedores tienen aplicaciones de IA que generan contenidos, ¿sabe a quién pertenece la tecnología que utilizan? ¿Y quién es el propietario del contenido que producen, y si hay licencias de pruebas implicadas al principio del proceso de creación, y es eso un problema?
Netskope incluye ahora estas preguntas en nuestro proceso de gobernanza como norma, y todas las empresas deberían hacerlo. Somos más fuertes como sector de la seguridad cuando somos francos y específicos sobre lo que queremos conseguir y cómo podemos conseguirlo.
Para obtener más información, consulte estos recursos adicionales:
- https://www.netskope.com/products/security-service-edge
- https://www.netskope.com/products/data-loss-prevention
- https://www.netskope.com/netskope-ai-labs
Additionally, if you’re interested in hearing more about generative AI and data security, please register for our LinkedIn Live event ChatGPT: Fortifying Data Security in the AI App-ocalypse, featuring Krishna Narayanaswamy, Naveen Palavalli, and Neil Thacker, on Thursday, June 22 at 9:30am PT.