Quantify the value of Netskope One SSE – Get the 2024 Forrester Total Economic Impact™ study

cerrar
cerrar
  • Por qué Netskope chevron

    Cambiar la forma en que las redes y la seguridad trabajan juntas.

  • Nuestros clientes chevron

    Netskope atiende a más de 3.400 clientes en todo el mundo, incluidos más de 30 de las 100 empresas más importantes de Fortune

  • Nuestros Partners chevron

    Nos asociamos con líderes en seguridad para ayudarlo a asegurar su viaje a la nube.

Líder en SSE. Ahora es líder en SASE de un solo proveedor.

Descubre por qué Netskope debutó como Líder en el Cuadrante Mágico de Gartner® 2024 para Secure Access Service Edge (SASE) de Proveedor Único.

Obtenga el informe
Visionarios del cliente en primer plano

Lea cómo los clientes innovadores navegan con éxito por el cambiante panorama actual de las redes y la seguridad a través de la Plataforma Netskope One.

Obtenga el eBook
Visionarios del cliente en primer plano
La estrategia de venta centrada en el partner de Netskope permite a nuestros canales maximizar su expansión y rentabilidad y, al mismo tiempo, transformar la seguridad de su empresa.

Más información sobre los socios de Netskope
Grupo de jóvenes profesionales diversos sonriendo
Tu red del mañana

Planifique su camino hacia una red más rápida, más segura y más resistente diseñada para las aplicaciones y los usuarios a los que da soporte.

Obtenga el whitepaper
Tu red del mañana
Netskope Cloud Exchange

Cloud Exchange (CE) de Netskope ofrece a sus clientes herramientas de integración eficaces para que saquen partido a su inversión en estrategias de seguridad.

Más información sobre Cloud Exchange
Vista aérea de una ciudad
  • Security Service Edge chevron

    Protéjase contra las amenazas avanzadas y en la nube y salvaguarde los datos en todos los vectores.

  • SD-WAN chevron

    Proporcione con confianza un acceso seguro y de alto rendimiento a cada usuario remoto, dispositivo, sitio y nube.

  • Secure Access Service Edge chevron

    Netskope One SASE proporciona una solución SASE nativa en la nube, totalmente convergente y de un único proveedor.

La plataforma del futuro es Netskope

Security Service Edge (SSE), Cloud Access Security Broker (CASB), Cloud Firewall, Next Generation Secure Web Gateway (SWG), and Private Access for ZTNA built natively into a single solution to help every business on its journey to Secure Access Service Edge (SASE) architecture.

Todos los productos
Vídeo de Netskope
Next Gen SASE Branch es híbrida: conectada, segura y automatizada

Netskope Next Gen SASE Branch converge Context-Aware SASE Fabric, Zero-Trust Hybrid Security y SkopeAI-Powered Cloud Orchestrator en una oferta de nube unificada, marcando el comienzo de una experiencia de sucursal completamente modernizada para la empresa sin fronteras.

Obtenga más información sobre Next Gen SASE Branch
Personas en la oficina de espacios abiertos.
Arquitectura SASE para principiantes

Obtenga un ejemplar gratuito del único manual que necesitará sobre diseño de una arquitectura SASE.

Obtenga el eBook
Libro electrónico de arquitectura SASE para principiantes
Cambie a los servicios de seguridad en la nube líderes del mercado con una latencia mínima y una alta fiabilidad.

Más información sobre NewEdge
Autopista iluminada a través de las curvas de la ladera de la montaña
Habilite de forma segura el uso de aplicaciones de IA generativa con control de acceso a aplicaciones, capacitación de usuarios en tiempo real y la mejor protección de datos de su clase.

Descubra cómo aseguramos el uso generativo de IA
Habilite de forma segura ChatGPT y IA generativa
Soluciones de confianza cero para implementaciones de SSE y SASE

Más información sobre Confianza Cero
Conducción en barco en mar abierto
Netskope logra la alta autorización FedRAMP

Elija Netskope GovCloud para acelerar la transformación de su agencia.

Más información sobre Netskope GovCloud
Netskope GovCloud
  • Recursos chevron

    Obtenga más información sobre cómo Netskope puede ayudarle a proteger su viaje hacia la nube.

  • Blog chevron

    Descubra cómo Netskope permite la transformación de la seguridad y las redes a través del perímetro de servicio de acceso seguro (SASE)

  • Eventos y Talleres chevron

    Manténgase a la vanguardia de las últimas tendencias de seguridad y conéctese con sus pares.

  • Seguridad definida chevron

    Todo lo que necesitas saber en nuestra enciclopedia de ciberseguridad.

Podcast Security Visionaries

Predicciones para 2025
En este episodio de Security Visionaries, nos acompaña Kiersten Todt, presidenta de Wondros y ex jefa de personal de la Agencia de Seguridad de Infraestructura y Ciberseguridad (CISA), para analizar las predicciones para 2025 y más allá.

Reproducir el pódcast Ver todos los podcasts
Predicciones para 2025
Últimos blogs

Lea cómo Netskope puede habilitar el viaje hacia Zero Trust y SASE a través de las capacidades de perímetro de servicio de acceso seguro (SASE).

Lea el blog
Amanecer y cielo nublado
SASE Week 2024 bajo demanda

Aprenda a navegar por los últimos avances en SASE y Zero Trust y explore cómo estos marcos se están adaptando para abordar los desafíos de ciberseguridad e infraestructura

Explorar sesiones
SASE Week 2024
¿Qué es SASE?

Infórmese sobre la futura convergencia de las herramientas de red y seguridad en el modelo de negocio actual de la nube.

Conozca el SASE
  • Empresa chevron

    Le ayudamos a mantenerse a la vanguardia de los desafíos de seguridad de la nube, los datos y la red.

  • Ofertas de Trabajo chevron

    Join Netskope's 3,000+ amazing team members building the industry’s leading cloud-native security platform.

  • Soluciones para clientes chevron

    Le apoyamos en cada paso del camino, garantizando su éxito con Netskope.

  • Formación y Acreditaciones chevron

    La formación de Netskope le ayudará a convertirse en un experto en seguridad en la nube.

Apoyar la sostenibilidad a través de la seguridad de los datos

Netskope se enorgullece de participar en Vision 2045: una iniciativa destinada a crear conciencia sobre el papel de la industria privada en la sostenibilidad.

Descubra más
Apoyando la sustentabilidad a través de la seguridad de los datos
Ayude a dar forma al futuro de la seguridad en la nube

At Netskope, founders and leaders work shoulder-to-shoulder with their colleagues, even the most renowned experts check their egos at the door, and the best ideas win.

Únete al equipo
Empleo en Netskope
Netskope dedicated service and support professionals will ensure you successful deploy and experience the full value of our platform.

Ir a Soluciones para clientes
Servicios profesionales de Netskope
Asegure su viaje de transformación digital y aproveche al máximo sus aplicaciones en la nube, web y privadas con la capacitación de Netskope.

Infórmese sobre Capacitaciones y Certificaciones
Grupo de jóvenes profesionales que trabajan

Informe sobre la nube y las amenazas:
Aplicaciones de IA en la empresa

azul claro más
Este Informe examina cómo las Organizaciones están equilibrando los beneficios de las aplicaciones de IA generativa a la vez que gestionan los riesgos asociados, destacando una estrategia cada vez más popular que implica DLP y coaching interactivo del usuario.
Nube oscura sobre la puesta de sol
28 min de lectura

Resumen ejecutivo enlace enlace

El Informe sobre Nube y Amenazas en las aplicaciones de IA de este año se centra específicamente en las tendencias y riesgos de las aplicaciones genAI, ya que su uso ha crecido rápidamente con un amplio alcance y un gran impacto en los usuarios empresariales. El 96% de las organizaciones encuestadas tienen usuarios que utilizan genAI y el número de usuarios se ha triplicado en los últimos 12 meses. El uso en el mundo real de las aplicaciones genAI incluye ayuda con la codificación, asistencia para la escritura, creación de presentaciones y generación de videos e imágenes. Estos casos de uso plantean retos de seguridad de los datos, en concreto cómo evitar que los datos sensibles, como el código fuente, los datos regulados y la propiedad intelectual, se envíen a aplicaciones no aprobadas.

Comenzamos este Informe examinando las tendencias de uso de las aplicaciones genAI, después analizamos los riesgos generales que introduce el uso de genAI, discutimos los controles específicos que son eficaces y pueden ayudar a la Organización a mejorar frente a datos incompletos o nuevas áreas de amenaza, y terminamos con una mirada a las tendencias e implicaciones futuras.

Sobre la base de millones de actividades anónimas de los usuarios, el uso de la aplicación genAI ha experimentado cambios significativos desde junio de 2023 hasta junio de 2024:

  • Prácticamente todas las organizaciones utilizan ahora aplicaciones genAI, y su uso ha aumentado del 74% al 96% de las organizaciones en el último año.
  • La adopción de GenAI está creciendo rápidamente y aún no ha alcanzado un estado estable. La Organización media utiliza más del triple de aplicaciones genAI y tiene casi el triple de usuarios que utilizan activamente esas aplicaciones que hace un año.
  • El riesgo de los datos es una de las principales preocupaciones de los primeros usuarios de aplicaciones genAI, ya que el uso compartido de código fuente propietario con aplicaciones genAI representa el 46% de todas las violaciones de la Política de datos.
  • La adopción de controles de seguridad para habilitar de forma segura las aplicaciones genAI va en aumento, y más de tres cuartas partes de las organizaciones utilizan políticas de bloqueo/permiso, DLP, coaching de usuarios en directo y otros controles para habilitar las aplicaciones genAI al tiempo que salvaguardan los datos.

La IA en general ha sido popular y ha atraído una inversión considerable, con una financiación total de más de 28 mil millones de dólares en 240+ acuerdos de capital desde 2020 hasta el 22/03/2024.[1]

AI 100 Principales empresas por financiación de capital

Con OpenAI y Anthropic sumando casi dos tercios (64%) de la financiación total, la financiación de la IA está dominada e impulsada por la genAI. Esto refleja el creciente entusiasmo de la genAI desde el lanzamiento de ChatGPT de OpenAI en noviembre de 2022. Además de las startups, se han creado múltiples ETF y fondos mutuos centrados en la IA, lo que indica otro nivel de financiación de los inversores del mercado público. La gran cantidad de inversión proporcionará un viento de cola para la investigación y el desarrollo, los lanzamientos de productos y los riesgos y abusos asociados.

La descomunal relación precio-ventas indica que la ejecución está por detrás de las elevadas expectativas de los inversores. Hugging Face tiene un múltiplo de 150x de una valoración de $4.5B sobre ingresos de $30M y Perplexity un múltiplo de 65x de $520M de valoración sobre ingresos de $8M[1]:

AI 100 Múltiplo de ingresos por empresa

Aunque los ingresos reales están rezagados, la actividad de lanzamiento de productos es alta, lo que indica que todavía estamos en las primeras etapas del ciclo de innovación en IA con una fuerte inversión en investigación y desarrollo. A modo de ejemplo, ha habido 34 lanzamientos de funciones (menores y principales) de ChatGPT desde noviembre de 2022[2], o aproximadamente dos por mes.

Está claro que la genAI será el motor de la inversión en IA a corto plazo e introducirá el riesgo y el impacto más amplios para los usuarios empresariales. Está o estará incluido por defecto en las principales aplicaciones, búsquedas y plataformas dispositivas, con casos de uso como la búsqueda, la edición, el ajuste de estilo/tono y la creación de contenidos. El principal riesgo se deriva de los datos que los usuarios envían a las aplicaciones, incluida la pérdida de datos, el intercambio involuntario de información confidencial y el uso inapropiado de la información (derechos legales) de los servicios de genAI. En la actualidad, se utilizan más los textos (LLM), con su mayor uso Caso, aunque las aplicaciones genAI para vídeo, imágenes y otros medios también son un factor.

Este Informe resume el uso y las tendencias de genAI basándose en los datos anonimizados de los clientes durante los últimos 12 meses, detallando el uso de las aplicaciones, las acciones de los usuarios, las áreas de riesgo y los primeros controles, a la vez que proporciona una guía prescriptiva para los próximos 12 meses.

 

test answer

About this report enlace enlace

Netskope proporciona protección contra amenazas y datos a millones de usuarios en todo el mundo. La información presentada en este Informe se basa en datos de uso anonimizados recogidos por la Plataforma Netskope Security Cloud relativos a un subconjunto de clientes de Netskope con autorización previa. Las estadísticas de este Informe se basan en el periodo de trece meses comprendido entre el 1 de junio de 2023 y el 30 de junio de 2024.

Este Informe incluye a millones de usuarios en cientos de Organizaciones de todo el mundo en múltiples sectores, incluidos los servicios financieros, la sanidad, la industria manufacturera, las telecomunicaciones y el comercio minorista. Las organizaciones incluidas en este Informe cuentan cada una con más de 1.000 usuarios activos.

 

sdofjsfojefgejelosij

Netskope Threat Labs enlace enlace

Integrado por los investigadores más destacados del sector en materia de amenazas a la nube y Malware, Netskope Threat Labs descubre, analiza y diseña defensas contra las últimas amenazas a Web, la nube y los datos que afectan a las empresas. Nuestros investigadores son presentadores y voluntarios habituales en las principales conferencias de seguridad, como DEF CON, Black Hat y RSAC.

 

Tendencias enlace enlace

Casi todas las organizaciones utilizan aplicaciones genAI

En los aproximadamente 18 meses transcurridos desde el lanzamiento público de ChatGPT en noviembre de 2022, una gran mayoría de organizaciones tienen usuarios que utilizan algún tipo de aplicación genAI. Esto ha aumentado constantemente del 74% en junio de 2023 al 96% en junio de 2024. En la actualidad, casi todas las organizaciones utilizan aplicaciones genAI.

 

Las organizaciones utilizan más aplicaciones genAI

El número de aplicaciones genAI utilizadas en cada Organización está aumentando significativamente, más del triple, pasando de una mediana de 3 aplicaciones genAI diferentes en junio de 2023 a más de 9,6 aplicaciones en junio de 2024. Hay un crecimiento aún más significativo cuando se observan los extremos superiores. El 25% superior de la Organización creció de 6 a 24 aplicaciones, y el 1% superior (no aparece en la imagen) creció de 14 a 80 aplicaciones.

Esta tendencia es comprensible debido al aumento de las ofertas de genAI al principio de un ciclo de innovación tecnológica, alimentado por la importante inversión y el entusiasmo de las oportunidades que ofrecen para aumentar la eficacia de la Organización. La implicación para la Organización que gestiona el riesgo de sus usuarios es que el número de ofertas de GenAI en uso sigue creciendo, lo que supone un blanco móvil a la hora de analizar los controles de riesgo, de los que hablamos más adelante en este Informe.

 

Aplicaciones de IA de alta generación

Las principales aplicaciones de IA en uso han cambiado en el último año. En junio de 2023, ChatGPT, Grammarly y Google Bard (ahora Gemini) eran las únicas aplicaciones genAI significativas con un número significativo de usuarios empresariales. A partir de junio de 2024, hay más aplicaciones de GenAI disponibles con un uso significativo. Este Informe cubre cerca de 200 aplicaciones diferentes que están siendo rastreadas por Netskope Threat Labs. ChatGPT mantiene su dominio en popularidad, con un 80% de las organizaciones que lo utilizan, mientras que Microsoft Copilot, que empezó a estar disponible de forma general en enero de 2024, ocupa el tercer lugar con un 57% de las organizaciones que lo utilizan. Grammarly y Google Gemini (anteriormente Bard) mantienen clasificaciones altas.

El crecimiento a lo largo del tiempo muestra aumentos mayoritariamente constantes para todas las aplicaciones, con la notable excepción de Microsoft Copilot, cuyo uso ha crecido hasta alcanzar el 57% de todas las organizaciones encuestadas en los seis meses transcurridos desde su lanzamiento. Esto demuestra, en parte, las altas tasas de adopción de las ofertas de Nuevo Microsoft por parte de la base instalada de empresas de Microsoft.

La lista de las aplicaciones genAI más populares incluye una variedad de recién llegados, que fluctuarán durante el próximo año. La categorización de cada una de estas aplicaciones también es interesante, ya que indica cuáles son los casos de uso más populares para las aplicaciones genAI por parte de los usuarios empresariales.

Categorías de aplicaciones GenAI más populares

Aplicación GenAICategory
ChatGPTBúsqueda, General
GramaticalmenteEscritura
GéminisBúsqueda, General
Copiloto de MicrosoftBúsqueda, General
IA perplejidadBúsqueda, General
Pluma BotEscritura
VEEDInvestigación
Base de chatGeneral, Búsqueda
WritesonicEscritura
GammaPresentaciones

Esperamos que las principales aplicaciones cambien significativamente en el próximo año y tengan un aspecto muy diferente en el Informe del año que viene. También habrá consolidación adicional, así como relaciones con los fabricantes de equipos originales (OEM). Por ejemplo, Chatbase ofrece modelos de ChatGPT y Gemini como opciones. Desde el punto de vista de la cuota de mercado, es posible que queramos agrupar la actividad de las aplicaciones por tecnología subyacente. Sin embargo, desde el punto de vista del riesgo de Organización, la agrupación por aplicaciones de cara al usuario es más importante porque los controles de seguridad a menudo difieren según la aplicación e incorporan dominios/URL a cierto nivel para distinguir las aplicaciones. Es decir, podría muy bien haber una Política para prohibir ChatGPT propiamente dicho pero permitir Chatbase utilizando ChatGPT por debajo. Dado que sus casos de uso son diferentes, la gestión de riesgos y los controles difieren.

 

La actividad de los usuarios va en aumento

La Organización no sólo está utilizando más aplicaciones genAI, sino que la cantidad de actividad de los usuarios con esas aplicaciones también está aumentando. Aunque el porcentaje global de usuarios que utilizan aplicaciones genAI sigue siendo relativamente bajo, el ritmo de aumento es significativo, pasando del 1,7% en junio de 2023 a más del 5% en junio de 2024, casi triplicándose en 12 meses para la Organización media. Incluso las organizaciones con un número de usuarios al mes superior a la media registraron una importante adopción de genAI año tras año: el 25% de las organizaciones con mayor número de usuarios pasó del 7% al 15% utilizando aplicaciones genAI. Independientemente del tamaño de la Organización, seguimos viendo un crecimiento en la adopción de genAI que continuará durante el próximo año, ya que aún no hemos visto signos de aplanamiento en las tasas de crecimiento.

 

Riesgos enlace enlace

Los datos siguen siendo el activo más crítico que hay que proteger cuando se utilizan las aplicaciones de genAI. Los usuarios siguen siendo los actores clave en la causa y prevención del riesgo para los datos y, en la actualidad, los riesgos de seguridad más urgentes para los usuarios de GenAI están relacionados con los datos.
Es útil considerar el riesgo de los datos desde el punto de vista del usuario a lo largo de dos dimensiones:

  • ¿Qué datos envían los usuarios a los servicios de genAI?
  • ¿Qué datos reciben y utilizan los usuarios de los servicios de genAI?

Entrada: Envío de datos

Producción: Resultados de los datos

¿Qué datos envían los usuarios a los servicios de genAI?

¿Qué datos reciben y utilizan los usuarios de los servicios de genAI?

Riesgos:

  • Aplicaciones desconocidas/sospechosas

  • Fuga de datos: PII, credenciales, derechos de autor, secretos comerciales, HIPAA/GDPR/PCI

Riesgos:

  • Corrección: alucinaciones, desinformación

  • Legal: violaciones de derechos de autor

  • Económico: eficiencia del trabajo, reemplazo

  • Ingeniería social: phishing, deepfakes

  • Chantaje

  • Contenido censurable

Entre la Organización incluida en este estudio, los riesgos y amenazas reconocidos en los últimos 12 meses se centran en el uso de aplicaciones y los riesgos de datos, que suele ser el caso en las primeras etapas de los mercados centrados en aplicaciones o servicios. Además, los riesgos sobre los que se está actuando se encuentran en el lado izquierdo de la tabla: los riesgos de datos asociados con los usuarios que envían avisos a las aplicaciones de genAI en lugar del lado derecho de la tabla, que se relaciona con el riesgo de usar datos que provienen o parecen provenir de los servicios de genAI. Esta priorización tiene sentido para la mayoría de las organizaciones: la primera prioridad tiende a ser la protección de los activos de información de una organización y lo que seguirá después son las cuestiones de responsabilidad o de corrección con el uso de contenidos de las aplicaciones genAI.

Al enumerar y priorizar aún más los riesgos a este nivel, la Organización no sólo podrá comprender mejor los riesgos específicos de su aplicación genAI, sino que, lo que es más importante, podrá determinar qué controles y Política son necesarios para hacer frente a esos riesgos.

 

Mandos enlace enlace

Dado que los primeros riesgos del mercado genAI se han centrado en la presentación de datos por parte de los usuarios, los controles de la parte izquierda de la tabla también han sido la prioridad de la Organización. Estos controles se analizan con más detalle a continuación.

Entrada: Envío de datos

Producción: Resultados de los datos

¿Qué datos envían los usuarios a los servicios de genAI?

¿Qué datos reciben y utilizan los usuarios de los servicios de genAI?

Riesgos:

  • Aplicaciones desconocidas/sospechosas

  • Fuga de datos: PII, credenciales, derechos de autor, secretos comerciales, HIPAA/GDPR/PCI

Riesgos:

  • Corrección: alucinaciones, desinformación

  • Legal: violaciones de derechos de autor

  • Económico: eficiencia del trabajo, reemplazo

  • Ingeniería social: phishing, deepfakes

  • Chantaje

  • Contenido censurable

Mandos:

  • AUP: restringe las aplicaciones que se utilizan

  • DLP: prevención/bloqueo

  • Formación/coaching de usuarios

  • Detección avanzada de movimientos de datos sospechosos

Mandos:

  • PUA: qué datos de qué aplicaciones, con qué propósito

  • Referencia/fuente de los datos Política

  • Aclaraciones/herramientas/procesos de roles de trabajo

  • Antiphishing

  • Detección de deepfakes/alucinaciones (auditoría de datos)

  • Trazabilidad de datos/huella dactilar

 

Aplicaciones

El punto de partida para el riesgo de las aplicaciones genAI son las propias aplicaciones. En la práctica, los controles de aplicaciones también son el punto de partida para controlar ese riesgo, normalmente implementados como listas de permitidos o bloqueados dentro de un SWG o proxy en línea.

La mayoría de las organizaciones han restringido el uso de aplicaciones genAI para proteger sus datos, con un 77% de las organizaciones bloqueando al menos una aplicación genAI en junio de 2024, lo que supone un aumento del 45% respecto al 53% de las organizaciones en junio de 2023.

Esta tendencia indica una buena madurez y adopción en los controles básicos en torno al uso de aplicaciones genAI. Controlar qué aplicaciones se utilizan en una Organización es un punto de partida necesario para reducir el riesgo. Sin embargo, se requerirán controles más granulares para que sean efectivos. El uso específico de una aplicación a menudo determina si la actividad debe estar permitida o no. Por ejemplo, se debe permitir una búsqueda general en ChatGPT, mientras que no se debe enviar el código fuente.

Si miramos con más detalle las aplicaciones bloqueadas, la mediana del número de aplicaciones bloqueadas para todos los usuarios de una Organización también ha ido en aumento, pasando de 0,6 aplicaciones en junio de 2023 a más de 2,6 aplicaciones en junio de 2024. El hecho de que haya tan pocas prohibiciones de aplicaciones genAI en toda la Organización en comparación con los cientos de aplicaciones genAI que hay en el mercado apunta hacia la popularidad de otros controles más matizados, que analizaremos con más detalle más adelante en este Informe.

Las aplicaciones genAI más bloqueadas tienen un cierto alcance en popularidad, pero un buen número de aplicaciones menos populares son las más bloqueadas. De esas organizaciones que bloquean aplicaciones genAI, el 28% bloquea Beautifal.ai (lo que la convierte en la aplicación genAI más comúnmente bloqueada), y el 19% bloquea Perplexity AI, que es la décima aplicación más comúnmente bloqueada. Los bloqueos pueden ser a menudo una medida temporal mientras se evalúan las nuevas aplicaciones para determinar si sirven a algún propósito comercial legítimo y son seguras para un determinado uso Caso.

Las aplicaciones específicas que se bloquean variarán según la Política de la organización, pero cuando los porcentajes son lo suficientemente altos, como en la lista de las 10 principales de arriba, vale la pena que toda Organización revise si las aplicaciones específicas se utilizan dentro de su propio entorno, así como si debe ajustar los controles en torno a la categoría de aplicaciones. La siguiente tabla muestra que las aplicaciones más bloqueadas abarcan una variedad de diferentes casos de uso en el espacio genAI.

Categorías de aplicaciones GenAI más bloqueadas

Aplicación GenAICategory
Beautiful.aiPresentaciones
WritesonicEscritura
CraionImágenes
TactiqTranscripción de reuniones de negocios (Zoom, Meet)
AIChattingGeneral, Búsqueda, Redacción, Resumen PDF
Copiloto de GithubCodificación
IA profundaGeneral, Buscar, Chat, Imagen, Vídeo
ScitaInvestigación
Poe IAGeneral, Búsqueda
IA perplejidadGeneral, Búsqueda

 

Prevención de pérdida de datos (DLP)

A medida que las organizaciones maduran más allá de las listas de aplicaciones permitidas, tienden a empezar a promulgar controles más finos en torno al uso de las aplicaciones permitidas. Como era de esperar, los controles DLP están creciendo en popularidad como control de riesgo de datos genAI. La popularidad de la prevención de la pérdida de datos ha aumentado del 24% en junio de 2023 a más del 42% de las organizaciones que utilizan DLP para controlar los tipos de datos enviados a las aplicaciones genAI en junio de 2024, lo que supone un crecimiento interanual superior al 75%.

El aumento de los controles de DLP refleja una comprensión en toda la Organización sobre cómo mitigar eficazmente el riesgo de los datos en medio de la tendencia más amplia y general del creciente uso de aplicaciones genAI. Dentro de DLP Política, las organizaciones buscan controlar los flujos de datos específicos, especialmente para bloquear los avisos de genAI que contengan información sensible o confidencial. En la Organización con Política de protección de datos, el código fuente representa casi la mitad (46%) de todas las infracciones de la DLP, mientras que los datos regulados por normativas sectoriales o requisitos de cumplimiento suponen el 35%, y la propiedad intelectual el 15%. Los datos regulados han sido una de las principales áreas de violación antes de la generación de IA y refuerza los desafíos con la capacitación manual de los usuarios en el intercambio inadecuado de datos regulados.


La publicación de datos sensibles en las aplicaciones genAI no sólo refleja las prioridades actuales de la Organización, sino que también muestra la utilidad de las distintas aplicaciones genAI. Por ejemplo, la popularidad de GitHub Copilot, unida a la cuota de mercado de Microsoft como Plataforma de desarrollo de software, puede impulsar un mayor uso de genAI para la generación de código en el futuro.

 

Coaching

Si bien es obvio que las aplicaciones o actividades maliciosas se benefician de los controles que bloquean y alertan, el riesgo de los datos suele ser más bien un área gris. Los controles de coaching pueden ser una técnica muy eficaz para hacer frente a las zonas grises, especialmente en los primeros ciclos tecnológicos de rápido movimiento como la genAI. Además, la Organización puede utilizar el asesoramiento para informar y perfeccionar los controles de seguridad sin bloquear la productividad con falsos positivos y lentos procesos de aprobación.

Los controles de entrenamiento proporcionan un cuadro de diálogo de advertencia al usuario mientras interactúa con las aplicaciones de genAI, lo que le permite cancelar o continuar con sus acciones. Funciona como las funciones de navegación segura integradas en los navegadores. Las ventajas son que proporciona una experiencia más amigable para el usuario, no bloqueando su trabajo, sino informando y permitiendo a los usuarios mejorar su comportamiento.

En el caso de las organizaciones con Política para controlar el uso de aplicaciones genAI, el 31% de ellas utilizaban diálogos de coaching en junio de 2024, frente al 20% de las organizaciones en junio de 2023, lo que supone un aumento de la adopción de más del 50%.

Esto concuerda con la creciente sofisticación de la Organización a la hora de aplicar controles de coaching similares de otros ámbitos de seguridad a otros nuevos, como el riesgo de las aplicaciones genAI. Aunque el crecimiento se ha aplanado, los controles de coaching son relativamente nuevos en comparación con los bloqueos totales y las alertas basadas en DLP o en la aplicación. Esperamos que la adopción siga creciendo a medida que más organizaciones comprendan cómo utilizar el coaching para gestionar los riesgos más graves asociados a los datos.

Cuando desglosamos la respuesta real del usuario a las alertas del diálogo de entrenamiento que se han producido, vemos una medida de eficacia. Para todos los usuarios que recibieron alertas de diálogo de coaching para aplicaciones genAI, en el 57% de esos Casos, los usuarios optaron por detener la acción que estaban realizando, lo que redujo el riesgo al evitar los usuarios enviar datos sensibles en las solicitudes de aplicaciones genAI o al evitar el uso de aplicaciones genAI desconocidas o nuevas. El 57% es lo suficientemente alto como para reforzar el Caso de que el coaching puede ser un control eficaz para complementar los bloques de aplicación explícitos y la Política DLP. Además, el coaching también permite la retroalimentación. Cuando deciden seguir adelante, la mayoría de las organizaciones ponen en práctica políticas que exigen que los usuarios justifiquen sus acciones durante la interacción de coaching.

No se trata de sugerir que la toma de decisiones de los usuarios sea la base de la Política de seguridad. Por el contrario, indica que en el caso de las organizaciones que utilizan el coaching, aproximadamente la mitad del uso de las aplicaciones genAI que no se bloquea directamente puede reducirse aún más por decisión del usuario. Igualmente importante, las decisiones de los usuarios en respuesta a los diálogos de orientación pueden y deben informar la revisión y el ajuste de la Política de Seguridad. Si bien las decisiones de los usuarios pueden ser defectuosas y arriesgadas, las dos categorizaciones forman la base para una revisión posterior. Las aplicaciones que un usuario ha decidido no usar en función de un cuadro de diálogo de entrenamiento deben analizarse para obtener una lista de bloqueo total. Las aplicaciones que un usuario decidió usar deben revisarse para incluirlas en una lista de estándares corporativos permitidos o quizás bloquearlas si hay una aplicación mejor o más aceptable. Las respuestas de los usuarios a las indicaciones de orientación también podrían utilizarse para perfeccionar una Política más matizada, como la Política DLP, para que sea más específica en su aplicación.

 

Análisis conductual

Estamos viendo signos tempranos de detecciones avanzadas de comportamientos sospechosos de usuarios con respecto al movimiento de datos que fueron detectados por los motores de detección de comportamiento. El movimiento sospechoso de datos a menudo comprende múltiples indicadores de comportamiento sospechoso o inesperado por parte de un usuario con respecto a la línea de base de la actividad normal del usuario o de la Organización. Los indicadores podrían implicar una actividad anómala de descarga o carga, fuentes u objetivos de datos nuevos o sospechosos como las aplicaciones genAI de Nuevo, así como otros comportamientos sospechosos como el uso de una dirección IP o un agente de usuario inesperados u ofuscados.

Un ejemplo de alerta de comportamiento avanzada detectada por movimiento de datos sospechoso implica el movimiento de datos desde una aplicación gestionada por la Organización y cargados en una aplicación genAI personal no aprobada.

Al igual que el coaching, la lista de aplicaciones que aparecen en estas alertas también se puede utilizar para priorizar los esfuerzos de control con el uso de aplicaciones genAI. Por ejemplo, dos aplicaciones de uso común pueden superponerse en funcionalidad, y eso por sí solo podría priorizar los esfuerzos para reducir la cantidad de aplicaciones.

El uso de alertas de comportamiento muestra la concienciación temprana y la adopción de la Organización para encontrar amenazas más difíciles de detectar, que tradicionalmente han incluido credenciales comprometidas, amenazas internas, movimiento lateral y actividades de exfiltración de datos por parte de actores maliciosos.

Cuando observamos más de cerca los movimientos de datos confidenciales, encontramos que las principales aplicaciones donde se originaron los datos confidenciales reflejan la popularidad de las aplicaciones corporativas en la nube, con OneDrive (34%) y Google Drive (29%) en la parte superior, seguidos de SharePoint (21%) y Outlook (8%) y Gmail (6%).

Las 3 aplicaciones principales son todas aplicaciones de almacenamiento y colaboración en la nube y fueron la fuente de los datos sensibles el 84% de las veces, mientras que las principales aplicaciones de Correo electrónico en la nube fueron la fuente el 14% de las veces. Al saber qué aplicaciones específicas están involucradas con más frecuencia en los movimientos de datos confidenciales, los equipos de seguridad pueden ajustar los controles de manera adecuada, por ejemplo, colocando controles DLP adicionales alrededor de las aplicaciones de intercambio de archivos. Las organizaciones deben dar prioridad a la evaluación de los riesgos de seguridad y a la implementación de controles en torno al movimiento de datos entre aplicaciones, especialmente el paso de aplicaciones gestionadas a aplicaciones genAI no gestionadas, ya que es cada vez más común y puede tener un gran impacto en la pérdida de datos.

 

Guía enlace enlace

En función de las tendencias de los últimos doce meses, recomendamos revisar las operaciones de seguridad actuales y la evaluación de riesgos con un enfoque específico en la IA y los cambios específicos de genAI necesarios.

El marco para comprender y gestionar el riesgo de genAI implica la revisión de las operaciones de seguridad en cinco áreas principales con una personalización específica para los riesgos específicos de la genAI:

  • Análisis, en particular evaluación de riesgos, del estado actual del uso de las aplicaciones genAI y del comportamiento de los usuarios.
  • Planificación del análisis de riesgos e implementación de controles.
  • Controles de prevención incluyendo aplicaciones genAI permitidas y DLP Política.
  • Controles de detección, como el coaching y el análisis del comportamiento.
  • Controles de remediación/mitigación, incluido el bloqueo de Nuevo, aplicaciones inapropiadas.

Los primeros pasos en el análisis serán hacer un inventario de las aplicaciones de genAI que se utilizan para formar una línea de base a partir de la cual planificar. A continuación, se pueden implementar controles de prevención y detección con la restricción de las aplicaciones permitidas (listas de aplicaciones aceptables) y la restricción de los datos enviados a esas aplicaciones (controles DLP).

 

Crear línea base de uso de aplicaciones

Utilizando los registros de las pasarelas o proxies seguros Web y la resolución DNS local, recopile métricas clave en:

  • Popularidad de la aplicación: qué aplicaciones, cuántas veces por semana/mes
  • Número de usuarios: con un volumen mínimo por semana/mes
  • Volumen de usuarios: cuánto uso (es decir, transacciones del usuario) por día/semana/mes, la cantidad de datos (solicitud/tamaño de la respuesta/volumen)

Un simple análisis con hojas de cálculo puede generar gráficos similares a los que se muestran en este Informe. Con una simple automatización, esto se puede revisar semanal o mensualmente para identificar cambios a lo largo del tiempo y valores atípicos en cualquier momento.

 

Reducir las incógnitas

Desde la línea de base de aplicación y uso, el siguiente paso será eliminar las aplicaciones desconocidas o sospechosas y aplicar una lista de aplicaciones aceptable. Esto reduce tanto la superficie de ataque como los vectores de ataque. Las medidas específicas incluyen la identificación de una lista de aplicaciones aceptables basada en los requisitos de trabajo de los usuarios, el bloqueo de aplicaciones desconocidas que resulten sospechosas y la formación de los usuarios para que se autocontrolen con técnicas de entrenamiento dentro de sus pasarelas y proxies seguros de Web.

 

Reduzca la pérdida de datos confidenciales

La detección de amenazas avanzadas no es trivial, pero dado que las amenazas internas y las credenciales comprometidas siguen siendo desafíos comunes, pero difíciles, también se debe planificar las amenazas de genAI. Aunque las alertas de detección de comportamiento no forman parte de las ofertas de los proveedores de genAI, sí forman parte de las plataformas y soluciones de ciberseguridad existentes. Estas capacidades de detección de comportamiento deben evaluarse centrándose en las amenazas específicas de la genIA. El número y el tipo de alertas específicas son el punto de partida.

Las evaluaciones de productos también deben incluir la puntuación y el seguimiento de riesgos, además de las detecciones de alertas. La detección de comportamiento suele ser más eficaz con algún concepto de seguimiento granular de riesgos de usuarios y aplicaciones a lo largo del tiempo, de modo que el análisis de la causa raíz se pueda realizar a nivel de usuario y de aplicación. Por ejemplo, ciertas aplicaciones o usuarios pueden causar más riesgo, y la remediación selectiva puede ayudar a reducirlo.

 

Perfeccionar el marco de riesgos

Los marcos de riesgo deben revisarse y adaptarse, o adaptarse específicamente a la IA o a la generación de IA. Esfuerzos como el Marco de Gestión de Riesgos de IA del NIST[4] se pueden utilizar en esfuerzos internos.

Gestión de los riesgos de ciberseguridad específicos de la inteligencia artificial en el sector de los servicios financieros por el Departamento del Tesoro de EE. UU., marzo de 2024[5 ] es un excelente ejemplo de gestión de los riesgos de la IA en el sector de los servicios financieros, pero también puede adaptarse a su sector u Organización.

Un buen marco de gestión de riesgos respaldará la planificación futura para las áreas de amenazas emergentes, como la responsabilidad y el riesgo legal por el uso de la información de las aplicaciones de genAI. Esto puede plasmarse en una Política de uso aceptable (PUA) junto con las directrices para los datos enviados a las aplicaciones genAI. Esta Política podría aplicarse como una combinación de controles manuales (formación) y controles técnicos en un SWG/proxy.

Gran parte de la mejora en la gestión de riesgos a largo plazo provendrá de una iteración coherente y regular del análisis de brechas, la priorización, la planificación y la ejecución.

 

Perspectiva enlace enlace

Más allá de las medidas técnicas específicas para hacer frente al riesgo de la genAI, la Organización debe dedicar algún tiempo al seguimiento de las principales tendencias para adelantarse a los cambios probables en los próximos 12 meses. Recomendamos realizar un seguimiento de las tendencias en cinco áreas principales: las mejores prácticas, los tres grandes proveedores empresariales, la inversión en genAI, el crecimiento y la inversión de la empresa de infraestructura y la adopción de proveedores de servicios de chat/LLM.

 

Prácticas recomendadas

Las mejores prácticas y los marcos de cumplimiento tienden a ser indicadores rezagados en el sentido de que a menudo se crean después de que un producto o tecnología tiene una adopción generalizada y una base de usuarios grande y establecida. Vale la pena hacer un seguimiento de estas mejores prácticas, para establecer prioridades basadas en áreas de amenazas comunes, análisis de brechas y para ayudar en la implementación de controles técnicos concretos o iniciativas de gestión de riesgos.

Dos documentos que son directrices útiles son el Marco de Gestión de Riesgos de IA del NIST[4] y la Gestión de los Riesgos de Ciberseguridad Específicos de la Inteligencia Artificial en el Sector de los Servicios Financieros del Departamento del Tesoro de EE. UU., marzo de 2024[5].
Además, siga la pista del ISAC de su sector, ya que es probable que en esos foros se debatan las mejores prácticas o se compartan indicadores de riesgos relacionados con la IA.

 

Impacto empresarial de los tres grandes

Aunque se habla mucho de las startups, como la financiación, las valoraciones, los ingresos y los lanzamientos de productos, en última instancia las empresas y sus usuarios serán los más afectados por lo que hagan los principales proveedores de aplicaciones, plataformas y dispositivos.

Las tres grandes alcanzan el mayor número (de 100M a 1B+) de usuarios, tanto consumidores como empresas, con sus aplicaciones/plataformas/dispositivos agregados:

  • Microsoft: Aplicaciones/AD/Azure/Surface/PC con IA
  • Google: Aplicaciones/Espacio de trabajo/GCP/Android
  • Apple: iPhone/iPad/Mac

Han hecho o es probable que hagan que genAI sea gratuito e integrado en los servicios existentes:

  • Microsoft: Copilot como parte de Windows, Git y Visual Studio
  • Google: Gemini como parte de la Búsqueda de Google
  • Apple: Apple Intelligence y ChatGPT como parte de iOS/MacOS

La organización debería seguir lo que hacen Microsoft, Google y Apple en genAI. Al centrarse en el caso de uso y la funcionalidad que utilizan sus usuarios, la Organización estará mejor preparada tanto para lo esperado como para lo probable en los próximos 12 meses. Por ejemplo, a medida que los departamentos de ingeniería se estandarizan en el uso de GitHub Copilot para la asistencia de codificación, la Política de seguridad debe implementar proactivamente controles de aplicaciones, DLP y detección avanzada en torno a Copilot y aplicaciones similares.

 

Más inversión, innovación y amenazas

El capital de riesgo no se queda al margen (o en el banco) por mucho tiempo, y los $ 10B + de Microsoft seguramente serán gastados por OpenAI más temprano que tarde. Las empresas con más dinero impulsarán en última instancia la mayor cantidad de investigación y desarrollo y lanzamientos de productos. Se debe dar prioridad a estas startups y sus servicios de genAI, ya que representan la fuente de riesgo más probable, simplemente en virtud de su enfoque en el rápido crecimiento de la cuota de mercado y el número de usuarios.

Parte de la inversión ha fluido hacia empresas que ofrecen servicios de Nuevo genAI basados en conjuntos de datos de dominios específicos, que pueden ser por profesión (p. ej. información legal o médica), o por idioma (p. ej. Traducción profesional de textos del japonés al inglés) u otras áreas de especialización. A corto plazo, esto causa más desafíos para los equipos de seguridad debido a la gran cantidad de aplicaciones para controlar, pero en última instancia, ayudará a medida que haya más especificidad en el propósito de las aplicaciones genAI, lo que hará que los controles a nivel de aplicación y los controles DLP asociados para una aplicación sean más efectivos y específicos. Es mucho más difícil gestionar el riesgo con una aplicación genAI generalista, como ChatGPT, ya que el uso Caso y los conjuntos de datos podrían ser casi cualquier cosa y Política es probable que sean demasiado generales.

Otras compañías, a menudo en un esfuerzo por competir, lanzarán rápido, a menudo, y "probarán en producción". Y debido a las presiones competitivas o a la dinámica del mercado, las grandes empresas, además de las startups, también pueden priorizar el desarrollo y el lanzamiento de funciones sobre las pruebas:

"Es importante que no retengamos funciones sólo porque pueda haber problemas ocasionales, sino que, a medida que los encontremos, los abordemos", dijo Liz Reid, que fue ascendida al cargo de vicepresidenta de búsquedas de Google en marzo, en una reunión de toda la empresa, según un audio obtenido por CNBC.[3]

No se trata de un juicio sobre la filosofía de avanzar rápidamente hacia el mercado, sino de una observación del pensamiento de los proveedores al principio de un ciclo de innovación. Al observar los lanzamientos de productos y funcionalidades de los proveedores de genAI, se pueden anticipar las áreas de riesgo antes de que se hagan evidentes. Como mínimo, esto debería crear expectativas de ciclos de lanzamiento rápidos, desencadenar triajes/evaluaciones internas para evaluar la funcionalidad de Nuevo y plantear cuestiones de control organizativo sobre la "versión" de una aplicación genAI que están utilizando.

 

Empresas de Infraestructura

Muchas empresas pueden centrarse en las aplicaciones y servicios de genAI a medida que sus usuarios los utilizan más. Sin embargo, se debe hacer un seguimiento de las empresas de infraestructura subyacentes, a menudo públicas, y de las que proporcionan hardware para identificar las macrotendencias futuras, especialmente la inversión. Al igual que el negocio de los routers durante el auge de Internet en la década de 1990, las empresas de infraestructura y su rendimiento financiero serán los principales indicadores de la inversión en aplicaciones y software e identificarán las próximas áreas de amenaza para analizar y planificar.

Por ejemplo, si nos fijamos en la inversión en NVDA (p. ej. centros de datos, SOC, PC) y la expansión de la base de ingresos/clientes, se pueden ver tendencias en los mercados de aplicaciones o servicios de genAI.

Cierto seguimiento financiero de la inversión en el mercado público de fondos mutuos y ETF, así como el seguimiento de métricas como la capitalización de mercado frente a los ingresos/ganancias (precio/ventas), la divergencia en los ingresos de infraestructura frente a los ingresos de startups/software, también pueden determinar las tendencias en investigación y desarrollo. La investigación y el desarrollo generalmente conducen a lanzamientos de productos que conducen al uso y a riesgos.

 

Servicios de Chat/LLM

Es evidente que si una Organización despliega su propio servicio de chat o de búsqueda utilizando la tecnología genAI, existe el riesgo de que se produzcan otras amenazas no tratadas en el presente Informe, a saber, ataques puntuales para eludir las barreras de protección que dan lugar a alucinaciones o resultados sesgados, u otros ataques de inyección de datos como el envenenamiento de datos. La organización debe dedicar tiempo a estos riesgos cuando planifique esos proyectos.

A medida que más Organización implementen de forma generalizada servicios de búsqueda o chat en sus sitios web que utilicen LLM u otras aplicaciones genAI, se producirá un aumento de los ataques contra todos los servicios genAI, ya que los atacantes suelen seguir el aumento del uso y del dinero asociado.

Estas tendencias de las amenazas pueden provocar entonces el ajuste o la revisión de los propios servicios genAI de una Organización, como un servicio de chat de ventas o un servicio de búsqueda en la base de conocimientos de apoyo. Las organizaciones que son, o planean ser, proveedores de servicios deberían revisar periódicamente sus perfiles de riesgo basándose en esta macrotendencia más amplia para ver si su postura de riesgo ha cambiado y si eso afecta a su marco de control para la protección, detección o mitigación de sus servicios genAI expuestos.

 

La perspectiva de un CISO

Aunque la genAI encierra una inmensa promesa de innovación y eficacia, también introduce riesgos sustanciales que la Organización debe abordar de forma proactiva. El uso de la gobernanza, la tecnología, los procesos y las personas deben aplicarse, aprovechando un marco que respalde un sólido respaldo para sus iniciativas. Como vimos con esta investigación, hubo algunas sorpresas, como que la información regulatoria se compartiera con los servicios. Aunque muchas Organizaciones están adoptando soluciones genAI, el uso de genAI como servicio informático en la sombra cuando se combina con información reglamentaria y datos sensibles, como secretos y contraseñas, es una exposición en la que ninguna Organización quiere encontrarse. El único enfoque consiste en adoptar un plan de acción programático para abordar el uso y la adopción tanto tácticos como estratégicos. La investigación mostró que la adopción de servicios iba seguida de respuestas rápidas en la valoración y la financiación. A menudo es bueno recordar que la segunda ley de Newton también puede aplicarse a la aceleración de los ciclos de adopción y su Organización puede encontrarse gestionando rápidamente una amenaza que ha cambiado de la noche a la mañana. Aunque el panorama puede cambiar, la rápida adopción y las tendencias pueden seguir siendo útiles como "previsión" en la que el "tiempo genAI por delante" puede utilizarse para impulsar la conversación con sus homólogos del sector y servir de lente para otros informes e investigaciones sobre amenazas.

 

Conclusión enlace enlace

La proliferación de tecnologías de inteligencia artificial (IA), en particular las impulsadas por la IA generativa (genAI), ha tenido un impacto significativo en la gestión de riesgos en todas las empresas. La GenAI, aunque promete innovación y ganancias de eficiencia, también introduce riesgos sustanciales que la Organización debe abordar de forma proactiva.

La GenIA, con su capacidad para generar contenido de forma autónoma, plantea desafíos únicos. Las empresas deben reconocer que los resultados generados por genAI pueden exponer inadvertidamente información confidencial, propagar información errónea o incluso introducir contenido malicioso. Como tal, se vuelve crucial evaluar y mitigar estos riesgos de manera integral.

La atención debe centrarse en el riesgo de los datos derivados del uso de la aplicación genAI, ya que los datos son el núcleo de los sistemas genAI. Estos son algunos pasos tácticos específicos para abordar el riesgo de genAI:

  • Conozca su estado actual: Comience por evaluar su infraestructura de IA existente, las canalizaciones de datos y las aplicaciones de genAI. Identifique las vulnerabilidades y brechas en los controles de seguridad.
  • Implemente controles fundamentales: Establezca medidas de seguridad fundamentales, como controles de acceso, mecanismos de autenticación y Encriptación. Estos controles fundamentales forman la base de un entorno de IA seguro.
  • Planifique controles avanzados: Más allá de lo básico, desarrolle una hoja de ruta para controles de seguridad avanzados. Considere el modelado de amenazas, la detección de anomalías y la supervisión continua.
  • Medir, iniciar, revisar, iterar: Evalúe periódicamente la eficacia de sus medidas de seguridad. Adáptelos y perfeccionérelos en función de las experiencias del mundo real y las amenazas emergentes.

Al contratar a proveedores de IA/genAI, la Organización debe informarse sobre sus medidas de protección de datos, protocolos de Encriptación y cumplimiento de la normativa sobre privacidad.
La organización debe considerar cuestiones más amplias de gestión de riesgos, incluidas las implicaciones legales, éticas y de responsabilidad. Colabore con los equipos internos de gestión de riesgos existentes, incluidas las partes interesadas legales, de cumplimiento y de riesgos, para revisar su marco de gestión de riesgos y adaptarlo a las áreas de riesgo de IA y genAI. Aproveche el Marco de Gestión de Riesgos de la IA del NIST[4 ] para guiar los propios esfuerzos de su Organización.

Por último, manténgase informado sobre las macrotendencias en IA y ciberseguridad. Supervise los avances en la ética de la IA, los cambios normativos y los ataques de adversarios. Al anticiparse a los puntos débiles emergentes y las áreas de amenaza, las empresas pueden ajustar de manera proactiva sus estrategias de mitigación de riesgos.
En resumen, las empresas deben navegar por el panorama cambiante de los riesgos relacionados con la IA combinando la experiencia técnica, la planificación estratégica y la vigilancia. La genIA, aunque transformadora, exige un sólido enfoque de gestión de riesgos para salvaguardar los datos, la reputación y la continuidad del negocio.

 

Referencias enlace enlace

[1] Las startups de inteligencia artificial más prometedoras de 2024, CB Insights, https://www.cbinsights.com/research/report/artificial-intelligence-top-startups-2024/
[2] ChatGPT — Notas de la versión, OpenAI. https://help.openai.com/en/articles/6825453-chatgpt-release-notes
[3] El jefe de búsqueda de Google dice que "no siempre encontraremos" errores con los productos de IA y tenemos que correr riesgos al lanzarlos, CNBC. https://www.cnbc.com/2024/06/13/google-wont-always-find-mistakes-in-ai-search-vp-reid-tells-staff.html
[4] Marco de gestión de riesgos de IA del NIST, NIST. https://www.nist.gov/itl/ai-risk-management-framework
[5] Gestión de los riesgos de ciberseguridad específicos de la inteligencia artificial en el sector de los servicios financieros, por el Departamento del Tesoro de EE. UU., marzo de 2024. https://home.treasury.gov/system/files/136/Managing-Artificial-Intelligence-Specific-Cybersecurity-Risks-In-The-Financial-Services-Sector.pdf

 

azul claro más

Informes de nube y amenazas

El informe Netskope Cloud and Threat Report ofrece una visión única sobre la adopción de aplicaciones en la nube, los cambios en el panorama de las amenazas en la nube y los riesgos para los datos de la empresa.

Tormenta con relámpagos sobre la ciudad por la noche

Acelere su estrategia de seguridad con el líder en SASE.