A medida que aumenta el número de ciberataques y filtraciones de datos, la demanda de soluciones avanzadas de ciberseguridad se hace cada vez más crítica. La inteligencia artificial (IA) ha surgido como un poderoso contendiente para ayudar a resolver los acuciantes problemas de ciberseguridad. Exploremos las ventajas, los retos y los riesgos potenciales de la IA en la ciberseguridad mediante un cuestionario compuesto por preguntas que escucho a menudo.
P1. ¿Estamos inmersos en una revolución de la IA?
R1. Las innovaciones en IA nos han impulsado hacia una revolución de la IA, que ha dado lugar a avances significativos en el procesamiento del lenguaje natural, la visión artificial y las capacidades de toma de decisiones. Los sistemas de IA se están volviendo más generales y competitivos en una amplia gama de tareas. Por ejemplo, los recientes avances de los grandes modelos de lenguaje (LLM) y la IA generativa, como ChatGPT y GPT-4, pueden hacer un trabajo asombroso escribiendo un artículo, creando código y dibujos, e incluso aprobando un examen de abogacía. Cada vez está más claro que estos avances tendrán un profundo impacto en nuestra sociedad, incluido el potencial de revolucionar el mundo de la ciberseguridad.
P2. ¿Cuáles son las ventajas de utilizar la IA para resolver problemas de ciberseguridad?
R2. La ciberseguridad a menudo se compara con buscar agujas en un pajar. Con la aplicación de la IA, el proceso puede ser más eficiente y escalable, ya que la IA destaca en la identificación de patrones y la realización de análisis de datos a gran escala. La IA ofrece varias ventajas a la hora de abordar los retos de la ciberseguridad, entre las que se incluyen:
- Detección de amenazas desconocidas de día cero y patrones de comportamiento anómalos, complementando los enfoques heurísticos y basados en firmas
- Clasificación y descubrimiento automáticos de datos sensibles y activos digitales corporativos
- Simplificación de complejas configuraciones de políticas y tareas de gestión, reduciendo la carga de trabajo de los profesionales de la ciberseguridad
- Identificación de usuarios y dispositivos realmente sospechosos mediante el análisis eficaz de grandes volúmenes de alertas y registros
- Proporcionar inteligencia adicional en torno a los incidentes de seguridad y recomendar formas eficaces de responder.
Estos beneficios conducen colectivamente a un enfoque más proactivo y eficiente para mantener la seguridad y reducir los riesgos de ciberataques. Con la ayuda de herramientas basadas en IA, los profesionales de la seguridad serán mucho más productivos a la hora de identificar a los actores maliciosos y llevar a cabo investigaciones sobre amenazas.
P3. ¿Cómo se utiliza la IA en Netskope?
R3. En Netskope, hemos estado utilizando la última tecnología de IA y aprendizaje automático (ML) para impulsar la plataforma de seguridad Netskope Intelligent Security Service Edge (SSE). Contamos con un equipo de científicos especializados en aprendizaje automático (ML), investigadores de seguridad e ingenieros de producto con un historial de resolución de problemas de seguridad y fraude en diferentes ámbitos. Aprovechando nuestra experiencia en IA/ML y seguridad, estamos desarrollando soluciones de IA a gran escala para SSE. Por ejemplo,
- Mediante la aplicación de técnicas de procesamiento del lenguaje natural y visión artificial basadas en el aprendizaje profundo, somos capaces de detectar datos sensibles y personales en el tráfico de red de nuestros clientes, como documentos financieros y legales, código fuente, e imágenes de pasaportes y tarjetas de crédito, lo que ayuda a nuestros clientes a cumplir la normativa sobre privacidad y proteger sus activos digitales.
- Mediante el uso de análisis integrados de comportamiento de usuarios y entidades (UEBA), hemos entrenado modelos para discernir patrones de comportamiento normales frente a los que proceden de amenazas internas malintencionadas, cuentas comprometidas, ataques de filtración de datos y ataques de ransomware.
- La IA se utiliza para potenciar varios motores de detección de malware en el análisis rápido en línea, así como en el análisis en profundidad basado en análisis estáticos y dinámicos del sistema de protección frente a amenazas de Netskope, mejorando su eficacia de detección de malware para varios tipos de archivos.
- Hemos entrenado modelos lingüísticos para clasificar URL y contenidos web, lo que permite a los clientes de Netskope aplicar su política de seguridad web y realizar un filtrado eficaz del tráfico web de información sensible o dañina.
- De forma similar al pre-entrenamiento generativo de grandes modelos lingüísticos, como los modelos GPT, utilizamos un gran número de páginas web para entrenar el codificador HTML y luego lo usamos para construir el clasificador de phishing. El clasificador de phishing nos permite detectar y bloquear páginas web de phishing en el tráfico web que pasa por la plataforma Netskope SSE en tiempo real.
En los últimos tres años, Netskope ha obtenido 15 patentes estadounidenses por nuestra innovadora aplicación de la IA para abordar los retos de la ciberseguridad. A diferencia de la IA de propósito general, nuestros modelos de IA están diseñados específicamente para resolver problemas de seguridad, al tiempo que priorizan la eficiencia y la precisión. Están optimizados para el procesamiento en tiempo real, lo que permite obtener resultados rápidos y precisos, manteniendo al mismo tiempo una pequeña huella de memoria.
P4. ¿Cuáles son los retos y riesgos del uso de la IA?
R4. La ciberseguridad tiene sus propios retos cuando se trata de la adopción de la IA y la tecnología de aprendizaje automático.
- Falsos positivos y negativos. En ocasiones, la IA puede clasificar incorrectamente las amenazas o los comportamientos anómalos, dando lugar a falsas alarmas o a amenazas no detectadas. Los costos de los falsos positivos y los falsos negativos pueden ser significativos, lo que plantea retos considerables para los modelos de IA. La IA de uso general, sin un entrenamiento y ajuste personalizados, puede no alcanzar los niveles de precisión requeridos. Netskope adopta un enfoque multicapa que incorpora componentes de IA, heurísticos y basados en firmas. De este modo se garantiza que la plataforma SSE de Netskope satisfaga los elevados requisitos de precisión necesarios para una seguridad de datos y una protección frente a amenazas eficaces.
- Preocupación por la privacidad. Los sistemas de IA necesitan acceder a grandes cantidades de datos para entrenar y mejorar sus algoritmos, lo que plantea cuestiones en torno a la privacidad y la protección de los datos. Además, el uso de la IA en ciberseguridad a menudo implica el tratamiento de información sensible y personal, que debe tratarse con cuidado para garantizar el cumplimiento de la protección de datos. El reciente incidente en el que trabajadores de Samsung filtraron accidentalmente secretos comerciales a través de ChatGPT sirve para recordar la importancia de la privacidad de los datos en el contexto de la ciberseguridad de la IA. En Netskope, nos tomamos muy en serio estas preocupaciones y damos prioridad al uso responsable de los datos en todas nuestras aplicaciones de IA. No utilizamos los datos de los clientes para el entrenamiento de IA a menos que nos den permiso explícito.
- Explicable e interpretable. En ciberseguridad, es crucial entender cómo la IA toma sus decisiones para garantizar que los resultados producidos sean fiables y coherentes. Sin embargo, algunos modelos de IA pueden ser muy complejos y difíciles de interpretar, lo que dificulta que los departamentos de seguridad entiendan cómo llega la IA a sus conclusiones. Este reto se agrava en el caso de la IA generativa, que puede producir patrones muy complejos e intrincados que pueden ser difíciles de interpretar y comprender para los humanos.
- Vulnerabilidad a ataques adversarios. Los hackers malintencionados pueden intentar explotar los modelos de IA creando ejemplos antagonistas, haciendo que el modelo de IA clasifique erróneamente las entradas y comprometiendo su eficacia. Este riesgo es especialmente pronunciado en la era de la IA generativa como ChatGPT/GPT-4, que puede producir datos sintéticos muy realistas que pueden ser difíciles de distinguir de los datos legítimos para los sistemas de seguridad de IA.
Aunque no cabe duda de que la IA puede aportar importantes beneficios a la ciberseguridad, es esencial reconocer y abordar los retos y riesgos potenciales asociados a su uso, especialmente en la era de la IA generativa como ChatGPT/GPT-4. Al reconocer y abordar estos retos, los departamentos de seguridad pueden garantizar que la IA se utilice de forma responsable y eficaz en la lucha contra las ciberamenazas.
P5: ¿Están utilizando los hackers la IA en su beneficio?
R5. No me cabe duda de que algunos ciberdelincuentes también están explotando la IA en su beneficio. Como se ilustra en este artículo de blog, pueden utilizar las tecnologías de IA para mejorar sus estrategias de ataque y desarrollar malware más sofisticado. Esto incluye el uso de IA para acelerar la explotación de vulnerabilidades, crear malware auto-propagable y automatizar la extracción de información valiosa. Además, los atacantes pueden utilizar una herramienta como ChatGPT para mejorar sus habilidades de ingeniería social. Puede ayudarles a escribir textos específicos que se utilizarían en correos electrónicos de phishing, redirigiendo a las víctimas a sitios web maliciosos o atrayéndolas para que descarguen malware adjunto.
Por lo tanto, las organizaciones deben mantenerse vigilantes y adoptar soluciones avanzadas basadas en IA para adelantarse al panorama de las ciberamenazas, en constante evolución.
P6: Últimamente se ha debatido mucho sobre los posibles riesgos para la humanidad debidos a la IA. ¿Se compromete el equipo de AI Labs a actuar con responsabilidad?
R6. Para garantizar la seguridad, necesitamos trabajar juntos como sociedad—desarrolladores de IA, empresas, gobiernos y particulares—para hacer que los sistemas de IA sean más precisos, transparentes, interpretables y fiables, minimizando al mismo tiempo los riesgos para la privacidad y la seguridad.
Netskope AI Labs está comprometido con el uso responsable de la inteligencia artificial y el aprendizaje automático. Trabajaremos con colegas, académicos, líderes de opinión y gobiernos para dirigir de forma segura los esfuerzos de IA de manera que beneficien y no perjudiquen a nuestros clientes, partner, empleados y sus familias. Tomaremos precauciones y mantendremos una postura de transparencia en nuestros esfuerzos.
Resumen
Actualmente estamos asistiendo a una edad de oro para la investigación y el desarrollo de la IA, ya que las tecnologías de IA siguen mejorando y adquiriendo un poder sin precedentes cada día que pasa. Estamos entusiasmados con el potencial de la IA en el ámbito de la ciberseguridad. Las organizaciones deberían adoptar la IA e invertir en marcos de seguridad integrales que incluyan soluciones de IA al tiempo que abordan diversos retos y riesgos potenciales, garantizando una adopción segura de la IA en su arsenal de ciberdefensa.
Para obtener más información sobre cómo utilizamos la IA para resolver diferentes problemas de ciberseguridad en Netskope y obtener las últimas actualizaciones, visite Netskope AI Labs.