A Netskope estreia como líder no Quadrante Mágico™ do Gartner® para Single-Vendor SASE Obtenir le rapport

fechar
fechar
  • Por que Netskope chevron

    Mudando a forma como a rede e a segurança trabalham juntas.

  • Nossos clientes chevron

    A Netskope atende a mais de 3.400 clientes em todo o mundo, incluindo mais de 30 das empresas da Fortune 100

  • Nossos parceiros chevron

    Fazemos parceria com líderes de segurança para ajudá-lo a proteger sua jornada para a nuvem.

Um Líder em SSE.
E agora Líder em Single-Vendor SASE.

Descubra por que a Netskope estreou como líder no Quadrante Mágico™ do Gartner® para Single-Vendor SASE

Obtenha o Relatório
Destaques de clientes visionários

Read how innovative customers are successfully navigating today’s changing networking & security landscape through the Netskope One platform.

Baixe o eBook
Destaques de clientes visionários
A estratégia de comercialização da Netskope, focada em Parcerias, permite que nossos Parceiros maximizem seu crescimento e lucratividade enquanto transformam a segurança corporativa.

Saiba mais sobre os parceiros da Netskope
Group of diverse young professionals smiling
Sua Rede do Amanhã

Planeje seu caminho rumo a uma rede mais rápida, segura e resiliente projetada para os aplicativos e usuários aos quais você oferece suporte.

Receba o whitepaper
Sua Rede do Amanhã
Apresentando a plataforma Netskope One

O Netskope One é uma plataforma nativa da nuvem que oferece serviços convergentes de segurança e rede para permitir sua transformação SASE e zero trust.

Saiba mais sobre o Netskope One
Abstrato com iluminação azul
Adote uma arquitetura Secure Access Service Edge (SASE)

O Netskope NewEdge é a maior nuvem privada de segurança de alto desempenho do mundo e oferece aos clientes cobertura de serviço, desempenho e resiliência inigualáveis.

Conheça a NewEdge
NewEdge
Netskope Cloud Exchange

O Cloud Exchange (CE) da Netskope oferece aos clientes ferramentas de integração poderosas para tirar proveito dos investimentos em estratégias de segurança.

Saiba mais sobre o Cloud Exchange
Vídeo da Netskope
A plataforma do futuro é a Netskope

Intelligent Security Service Edge (SSE), Cloud Access Security Broker (CASB), Cloud Firewall, Next Generation Secure Web Gateway (SWG) e Private Access for ZTNA integrados nativamente em uma única solução para ajudar todas as empresas em sua jornada para o Secure Access Service Arquitetura de borda (SASE).

Vá para a plataforma
Vídeo da Netskope
Next Gen SASE Branch é híbrida — conectada, segura e automatizada

Netskope Next Gen SASE Branch converge o Context-Aware SASE Fabric, Zero-Trust Hybrid Security e SkopeAI-Powered Cloud Orchestrator em uma oferta de nuvem unificada, inaugurando uma experiência de filial totalmente modernizada para empresas sem fronteiras.

Saiba mais sobre Next Gen SASE Branch
Pessoas no escritório de espaço aberto
Desenvolvendo uma Arquitetura SASE para Leigos

Obtenha sua cópia gratuita do único guia de planejamento SASE que você realmente precisará.

Baixe o eBook
Mude para serviços de segurança na nuvem líderes de mercado com latência mínima e alta confiabilidade.

Conheça a NewEdge
Lighted highway through mountainside switchbacks
Permita com segurança o uso de aplicativos generativos de IA com controle de acesso a aplicativos, treinamento de usuários em tempo real e a melhor proteção de dados da categoria.

Saiba como protegemos o uso de IA generativa
Ative com segurança o ChatGPT e a IA generativa
Soluções de zero trust para a implementação de SSE e SASE

Conheça o Zero Trust
Boat driving through open sea
Netskope obtém alta autorização do FedRAMP

Escolha o Netskope GovCloud para acelerar a transformação de sua agência.

Saiba mais sobre o Netskope GovCloud
Netskope GovCloud
  • Recursos chevron

    Saiba mais sobre como a Netskope pode ajudá-lo a proteger sua jornada para a nuvem.

  • Blog chevron

    Saiba como a Netskope permite a transformação da segurança e da rede por meio do SSE (Security Service Edge)

  • Eventos e workshops chevron

    Esteja atualizado sobre as últimas tendências de segurança e conecte-se com seus pares.

  • Security Defined chevron

    Tudo o que você precisa saber em nossa enciclopédia de segurança cibernética.

Podcast Security Visionaries

A convergência das funções de CIO & CISO
Junte-se ao apresentador Max Havey no último episódio de Security Visionaries, quando ele se reúne com a convidada Jadee Hanson, CISO da Vanta.

Reproduzir o podcast
A convergência das funções de CIO & CISO
Últimos blogs

Leia como a Netskope pode viabilizar a jornada Zero Trust e SASE por meio de recursos de borda de serviço de segurança (SSE).

Leia o Blog
Sunrise and cloudy sky
SASE Week 2023: Sua jornada SASE começa agora!

Replay das sessões da quarta SASE Week anual.

Explorar sessões
SASE Week 2023
O que é SASE?

Saiba mais sobre a futura convergência de ferramentas de redes e segurança no modelo predominante e atual de negócios na nuvem.

Saiba mais sobre a SASE
  • Empresa chevron

    Ajudamos você a antecipar os desafios da nuvem, dos dados e da segurança da rede.

  • Liderança chevron

    Nossa equipe de liderança está fortemente comprometida em fazer tudo o que for preciso para tornar nossos clientes bem-sucedidos.

  • Customer Solutions chevron

    Estamos aqui junto com você a cada passo da sua trajetória, assegurando seu sucesso com a Netskope.

  • Treinamento e certificação chevron

    Os treinamentos da Netskope vão ajudar você a ser um especialista em segurança na nuvem.

Apoiando a sustentabilidade por meio da segurança de dados

A Netskope tem o orgulho de participar da Visão 2045: uma iniciativa destinada a aumentar a conscientização sobre o papel da indústria privada na sustentabilidade.

Saiba mais
Apoiando a sustentabilidade por meio da segurança de dados
Pensadores, construtores, sonhadores, inovadores. Juntos, fornecemos soluções de segurança na nuvem de última geração para ajudar nossos clientes a proteger seus dados e seu pessoal.

Conheça nossa equipe
Group of hikers scaling a snowy mountain
A talentosa e experiente equipe de Serviços Profissionais da Netskope fornece uma abordagem prescritiva para sua implementação bem sucedida.

Conheça os Serviços Profissionais
Netskope Professional Services
Proteja sua jornada de transformação digital e aproveite ao máximo seus aplicativos de nuvem, web e privados com o treinamento da Netskope.

Saiba mais sobre Treinamentos e Certificações
Group of young professionals working

Relatório sobre nuvem e ameaças:
Aplicativos de IA na empresa

azul claro mais
Este relatório examina como as organizações estão equilibrando os benefícios dos aplicativos de IA generativa e, ao mesmo tempo, gerenciando os riscos associados, destacando uma estratégia cada vez mais popular que envolve DLP e treinamento interativo do usuário.
Nuvem escura sobre o pôr do sol
28 min de leitura

Executive summary link link

O Cloud and Threat Report deste ano sobre aplicativos de IA concentra-se especificamente nas tendências e nos riscos dos aplicativos de genAI, pois o uso da genAI tem crescido rapidamente com amplo alcance e grande impacto sobre os usuários corporativos. 96% das organizações pesquisadas têm usuários que usam genAI e o número de usuários triplicou nos últimos 12 meses. O uso dos aplicativos genAI no mundo real inclui ajuda com codificação, assistência à escrita, criação de apresentações e geração de vídeos e imagens. Esses casos de uso apresentam desafios de segurança de dados, especificamente como evitar que dados confidenciais, como código-fonte, dados regulamentados e propriedade intelectual, sejam enviados para aplicativos não aprovados.

Começamos este relatório observando as tendências de uso dos aplicativos de genAI, depois analisamos os riscos de base ampla introduzidos pelo uso da genAI, discutimos controles específicos que são eficazes e podem ajudar as organizações a melhorar diante de dados incompletos ou novas áreas de ameaças e terminamos com uma visão das tendências e implicações futuras.

Com base em milhões de atividades anônimas de usuários, o uso do aplicativo genAI passou por mudanças significativas de junho de 2023 a junho de 2024:

  • Praticamente todas as organizações agora usam aplicativos genAI, com o uso aumentando de 74% para 96% das organizações no último ano.
  • A adoção da GenAI está crescendo rapidamente e ainda não atingiu um estado estável. A organização média usa mais de três vezes o número de aplicativos genAI e tem quase três vezes o número de usuários que usam ativamente esses aplicativos do que há um ano.
  • O risco de dados é a principal preocupação dos primeiros usuários de aplicativos genAI, com o compartilhamento de código-fonte proprietário com aplicativos genAI representando 46% de todas as violações da política de dados.
  • A adoção de controles de segurança para habilitar com segurança os aplicativos genAI está em alta, com mais de três quartos das organizações usando políticas de bloqueio/permissão, DLP, treinamento de usuários ao vivo e outros controles para habilitar aplicativos genAI e, ao mesmo tempo, proteger os dados.

A IA em geral tem sido popular e atraído investimentos consideráveis, com financiamento totalizando mais de US$ 28 bilhões em mais de 240 negócios de capital de 2020 a 22/03/2024[1].

AI 100 Principais empresas por financiamento de capital

Com a OpenAI e a Anthropic totalizando quase dois terços (64%) do financiamento total, o financiamento da IA é dominado e impulsionado pela genAI. Isso reflete o crescente entusiasmo da genAI desde o lançamento do ChatGPT da OpenAI em novembro de 2022. Além das startups, foram criados vários ETFs e fundos mútuos voltados para IA, o que indica outro nível de financiamento por parte dos investidores do mercado público. O grande volume de investimentos proporcionará um impulso para pesquisa e desenvolvimento, lançamentos de produtos e riscos e abusos associados.

Índices de preço em relação às vendas muito elevados indicam que a execução está aquém das grandes expectativas dos investidores. A Hugging Face tem um múltiplo de 150x de uma avaliação de US$ 4,5 bilhões sobre receitas de US$ 30 milhões e a Perplexity um múltiplo de 65x de uma avaliação de US$ 520 milhões sobre receitas de US$ 8 milhões[1]:

AI 100 Múltiplo de receita por empresa

&Embora a receita real esteja atrasada, a atividade de lançamento de produtos é alta, o que indica que ainda estamos no início do ciclo de inovação de IA, com grandes investimentos em P&D. Por exemplo, houve 34 lançamentos de recursos (menores e maiores) do ChatGPT desde novembro de 2022[2], ou aproximadamente dois por mês.

Está claro que a genAI será o motor do investimento em IA no curto prazo e introduzirá o risco e o impacto mais amplos para os usuários corporativos. Ele é ou será incluído por padrão nas principais plataformas de aplicativos, pesquisa e dispositivos, com casos de uso como pesquisa, edição de cópias, ajuste de estilo/tom e criação de conteúdo. O principal risco decorre dos dados que os usuários enviam para os aplicativos, incluindo perda de dados, compartilhamento não intencional de informações confidenciais e uso inadequado de informações (direitos legais) dos serviços da genAI. Atualmente, os textos (LLMs) são mais usados, com seus casos de uso mais amplos, embora os aplicativos genAI para vídeo, imagens e outras mídias também sejam um fator.

Este relatório resume o uso e as tendências da genAI com base em dados anônimos de clientes nos últimos 12 meses, detalhando o uso do aplicativo, as ações do usuário, as áreas de risco e os controles iniciais, além de fornecer orientações prescritivas para os próximos 12 meses.

 

resposta de teste

About this report link link

A Netskope oferece proteção contra ameaças e dados a milhões de usuários em todo o mundo. As informações apresentadas neste relatório baseiam-se em dados de uso anônimos coletados pela plataforma Netskope Security Cloud em relação a um subconjunto de clientes da Netskope com autorização prévia. As estatísticas deste relatório se baseiam no período de treze meses, de 1º de junho de 2023 a 30 de junho de 2024.

Esse relatório inclui milhões de usuários em centenas de organizações em todo o mundo em vários setores, incluindo serviços financeiros, saúde, manufatura, telecomunicações e varejo. As organizações incluídas neste relatório têm, cada uma, mais de 1.000 usuários ativos.

 

sdofjsfojefgejelosij

Netskope Threat Labs link link

Staffed by the industry’s foremost cloud threat and malware researchers, Netskope Threat Labs discovers, analyzes, and designs defenses against the latest web, cloud, and data threats affecting enterprises. Our researchers are regular presenters and volunteers at top security conferences, including DEF CON, Black Hat, and RSAC.

 

Tendências link link

Quase todas as organizações usam aplicativos genAI

Nos cerca de 18 meses desde o lançamento público do ChatGPT em novembro de 2022, a grande maioria das organizações tem usuários que usam algum tipo de aplicativo de genAI. Isso tem aumentado constantemente de 74% em junho de 2023 para 96% em junho de 2024. Quase todas as organizações usam aplicativos genAI atualmente.

 

As organizações estão usando mais aplicativos genAI

O número de aplicativos genAI usados em cada organização está aumentando significativamente, mais do que triplicando de uma média de 3 aplicativos genAI diferentes em junho de 2023 para mais de 9,6 aplicativos em junho de 2024. O crescimento é ainda mais significativo quando se observa os extremos superiores. Os 25% principais das organizações cresceram de 6 aplicativos para 24 aplicativos, e o 1% principal (não ilustrado) cresceu de 14 para 80 aplicativos.

Essa tendência é compreensível devido ao aumento das ofertas de genAI no início de um ciclo de inovação tecnológica, impulsionado pelo investimento significativo e pela empolgação com as oportunidades que elas oferecem para aumentar a eficiência da organização. A implicação para as organizações que gerenciam o risco de seus usuários é que o número de ofertas de GenAI em uso continua a crescer, apresentando um alvo móvel ao analisar os controles de risco, que discutiremos mais adiante neste relatório.

 

Principais aplicativos genAI

Os principais aplicativos de IA em uso mudaram no último ano. Em junho de 2023, o ChatGPT, o Grammarly e o Google Bard (agora Gemini) eram os únicos aplicativos genAI importantes com um número significativo de usuários corporativos. A partir de junho de 2024, haverá mais aplicativos GenAI disponíveis com uso significativo. Esse relatório abrange quase 200 aplicativos diferentes que estão sendo rastreados pelo Netskope Threat Labs. O ChatGPT continua dominando a popularidade, com 80% das organizações usando-o, enquanto o Microsoft Copilot, que se tornou disponível em janeiro de 2024, está em terceiro lugar, com 57% das organizações usando-o. O Grammarly e o Google Gemini (antigo Bard) mantêm classificações altas.

O crescimento ao longo do tempo mostra aumentos constantes para todos os aplicativos, com a notável exceção do Microsoft Copilot, que cresceu em uso para 57% de todas as organizações pesquisadas nos seis meses desde o lançamento. Isso mostra, em parte, as altas taxas de adoção da base instalada corporativa da Microsoft para novas ofertas da Microsoft.

A lista dos aplicativos de genAI mais populares inclui uma variedade de recém-chegados, que oscilarão ao longo do próximo ano. A categorização de cada um desses aplicativos também é interessante, pois indica quais são os casos de uso mais populares para aplicativos genAI de usuários corporativos.

Categorias de aplicativos GenAI mais populares

Aplicativo GenAICategory
Beautiful.aiApresentações
WritesonicRedação
CraiyonImages
TactiqTranscrição de reuniões de negócios (Zoom, Meet)
AIChattingGeral, Pesquisa, Redação, Sumarização de PDF
Copiloto do GithubCodificação
DeepAIGeral, Pesquisa, Bate-papo, Imagem, Vídeo
scitePesquisa
IA de PoeGeral, Pesquisa
IA de perplexidadeGeral, Pesquisa

Esperamos que os principais aplicativos mudem significativamente no próximo ano e tenham uma aparência muito diferente no relatório do ano que vem. Haverá também consolidação adicional, bem como relações com fabricantes de equipamentos originais (OEM). Por exemplo, o Chatbase oferece os modelos ChatGPT e Gemini como opções. Do ponto de vista da participação no mercado, talvez queiramos agrupar a atividade de aplicativos por tecnologia subjacente. No entanto, do ponto de vista do risco da organização, o agrupamento por aplicativo voltado para o usuário é mais importante porque os controles de segurança geralmente diferem por aplicativo e incorporam domínios/URLs em algum nível para distinguir os aplicativos. Ou seja, poderia muito bem haver uma política para banir o ChatGPT propriamente dito, mas permitir o Chatbase usando o ChatGPT por baixo. Como seus casos de uso são diferentes, o gerenciamento de riscos e os controles são diferentes.

 

A atividade do usuário está aumentando

Não apenas as organizações estão usando mais aplicativos genAI, mas o volume de atividade do usuário com esses aplicativos também está aumentando. Embora a porcentagem geral de usuários que usam aplicativos genAI ainda seja relativamente baixa, a taxa de aumento é significativa, passando de 1,7% em junho de 2023 para mais de 5% em junho de 2024, quase triplicando em 12 meses para a organização média. Mesmo as organizações com um número de usuários acima da média por mês tiveram uma adoção significativa da genAI ano a ano: os 25% principais das organizações cresceram de 7% para 15% usando aplicativos de genAI. Independentemente do tamanho da organização, continuamos a ver um crescimento na adoção da genAI que continuará no próximo ano, pois ainda não vimos sinais de achatamento das taxas de crescimento.

 

Risks link link

Os dados ainda são o ativo mais importante a ser protegido quando os aplicativos genAI estão em uso. Os usuários ainda são os principais responsáveis por causar e evitar riscos aos dados e, atualmente, os riscos de segurança mais urgentes para os usuários da GenAI estão todos relacionados aos dados.
É útil considerar o risco dos dados do ponto de vista do usuário em duas dimensões:

  • Quais dados os usuários enviam para os serviços do genAI?
  • Quais dados os usuários recebem e usam dos serviços do genAI?

Entrada: Envio de dados

Saída: Resultados dos dados

Quais dados os usuários enviam para os serviços do genAI?

Quais dados os usuários recebem e usam dos serviços do genAI?

Riscos:

  • Aplicativos desconhecidos/suspeitos

  • Vazamento de dados: PII, credenciais, direitos autorais, segredos comerciais, HIPAA/GDPR/PCI

Riscos:

  • Correção: alucinações, desinformação

  • Jurídico: violações de direitos autorais

  • Econômicos: eficiência no trabalho, substituição

  • Engenharia social: phishing, deepfakes

  • Chantagem

  • Conteúdo questionável

Entre as organizações incluídas neste estudo, os riscos e as ameaças reconhecidos nos últimos 12 meses estão concentrados no uso de aplicativos e nos riscos de dados, o que geralmente acontece nos estágios iniciais dos mercados focados em aplicativos ou serviços. Além disso, os riscos sobre os quais se está agindo estão no lado esquerdo da tabela: os riscos de dados associados aos usuários que enviam prompts para os aplicativos genAI, em oposição ao lado direito da tabela, que se refere ao risco de usar dados provenientes ou que parecem vir dos serviços genAI. Essa priorização faz sentido para a maioria das organizações: a primeira prioridade tende a ser a proteção dos ativos de informação de uma organização, e o que virá depois são problemas de responsabilidade ou correção com o uso do conteúdo dos aplicativos genAI.

Ao enumerar e priorizar ainda mais os riscos nesse nível, as organizações poderão não apenas entender melhor os riscos específicos de seus aplicativos genAI, mas também determinar quais controles e políticas são necessários para lidar com esses riscos.

 

Controls link link

Como os riscos iniciais no mercado de genAI se concentraram no envio de dados pelos usuários, os controles no lado esquerdo da tabela também foram a prioridade para as organizações. Esses controles são discutidos em mais detalhes abaixo.

Entrada: Envio de dados

Saída: Resultados dos dados

Quais dados os usuários enviam para os serviços do genAI?

Quais dados os usuários recebem e usam dos serviços do genAI?

Riscos:

  • Aplicativos desconhecidos/suspeitos

  • Vazamento de dados: PII, credenciais, direitos autorais, segredos comerciais, HIPAA/GDPR/PCI

Riscos:

  • Correção: alucinações, desinformação

  • Jurídico: violações de direitos autorais

  • Econômicos: eficiência no trabalho, substituição

  • Engenharia social: phishing, deepfakes

  • Chantagem

  • Conteúdo questionável

Controls:

  • AUP: restringir quais aplicativos estão sendo usados

  • DLP: prevenção/bloqueio

  • Treinamento/coaching de usuários

  • Detecção avançada de movimentação suspeita de dados

Controls:

  • AUP: quais dados de quais aplicativos, para qual finalidade

  • Políticas de referência/fonte de dados

  • Esclarecimentos/ferramentas/processos sobre o cargo

  • Anti-phishing

  • Detecção de deepfake/hallucination (auditoria de dados)

  • Rastreabilidade de dados/impressão digital

 

Aplicativos

O ponto de partida para o risco do aplicativo genAI são os próprios aplicativos. Na prática, os controles de aplicativos também são o ponto de partida para controlar esse risco, normalmente implementados como listas de permissão ou bloqueio em um SWG ou proxy em linha.

A maioria das organizações restringiu o uso de aplicativos genAI para proteger seus dados, com 77% das organizações bloqueando pelo menos um aplicativo genAI em junho de 2024, o que representa um aumento de 45% em relação aos 53% das organizações em junho de 2023.

Essa tendência indica boa maturidade e adoção de controles básicos em relação ao uso de aplicativos genAI. Controlar quais aplicativos são usados em uma organização é um ponto de partida necessário para reduzir os riscos. No entanto, serão necessários controles mais granulares para serem eficazes. O uso específico de um aplicativo geralmente determina se a atividade deve ser permitida ou não. Por exemplo, uma pesquisa geral no ChatGPT deve ser permitida, enquanto o envio do código-fonte não deve.

Analisando mais detalhadamente os aplicativos bloqueados, o número médio de aplicativos bloqueados para todos os usuários de uma organização também tem aumentado, de 0,6 aplicativo em junho de 2023 para mais de 2,6 aplicativos em junho de 2024. O fato de haver tão poucas proibições de aplicativos genAI em toda a organização, em comparação com as centenas de aplicativos genAI no mercado, aponta para a popularidade de outros controles mais matizados, que discutiremos em mais detalhes posteriormente neste relatório.

Os aplicativos genAI mais bloqueados estão de certa forma relacionados à popularidade, mas um número razoável de aplicativos menos populares são os mais bloqueados. Das organizações que bloqueiam aplicativos de genAI, 28% bloqueiam o Beautifal.ai (tornando-o o aplicativo de genAI mais comumente bloqueado) e 19% bloqueiam o Perplexity AI, que é o décimo aplicativo mais comumente bloqueado. Muitas vezes, os bloqueios podem ser uma medida temporária, pois os novos aplicativos são avaliados para determinar se atendem a alguma finalidade comercial legítima e se são seguros para determinados casos de uso.

Os aplicativos específicos que são bloqueados variam de acordo com a política da organização, mas quando as porcentagens são altas o suficiente, como na lista dos 10 principais acima, vale a pena que todas as organizações analisem se os aplicativos específicos são usados em seu próprio ambiente, bem como se devem ajustar os controles em torno da categoria de aplicativos. A tabela a seguir mostra que os aplicativos mais bloqueados abrangem uma variedade de casos de uso diferentes no espaço da genAI.

Most Blocked GenAI App Categories

Aplicativo GenAICategory
Beautiful.aiApresentações
WritesonicRedação
CraiyonImages
TactiqTranscrição de reuniões de negócios (Zoom, Meet)
AIChattingGeral, Pesquisa, Redação, Sumarização de PDF
Copiloto do GithubCodificação
DeepAIGeral, Pesquisa, Bate-papo, Imagem, Vídeo
scitePesquisa
IA de PoeGeral, Pesquisa
IA de perplexidadeGeral, Pesquisa

 

Prevenção contra a perda de dados (Data Loss Prevention - DLP)

As organizations mature beyond allowed applications lists, they tend to begin enacting more fine-grained controls around the usage of the allowed applications. Unsurprisingly, DLP controls are growing in popularity as a genAI data risk control. Data loss prevention has increased in popularity from 24% in June 2023 to over 42% of organizations using DLP to control the types of data sent to genAI apps in June 2024, more than 75% year-over-year growth.

The increase in DLP controls reflects an understanding across organizations about how to effectively mitigate data risk amidst the larger, broad trend of increasing genAI app use. Within DLP policies, organizations are looking to control specific data flows, especially to block genAI prompts containing sensitive or confidential information. In organizations with data protection policies, source code accounts for nearly half (46%) of all DLP violations, with regulated data driven by industry regulations or compliance requirements at 35%, and intellectual property at 15%. Regulated data has been a top violation area pre-genAI and reinforces the challenges with manual training of users in the improper sharing of regulated data.


Posting sensitive data to genAI apps not only reflects the current priorities among organizations, but also shows the utility of various genAI apps. For example, GitHub Copilot’s popularity, coupled with Microsoft’s market share as a software development platform, may drive higher use of genAI for code generation in the future.

 

Coaching

While obviously malicious applications or activities are served well by controls that block and alert, data risk is often more of a gray area. Coaching controls can be a highly effective technique to deal with gray areas, especially in early fast-moving technology cycles like genAI. Furthermore, organizations can use coaching to inform and refine security controls without blocking productivity with false positives and slow approval processes.

Coaching controls provide a warning dialog to the user while interacting with genAI apps, allowing them to cancel or proceed with their actions. It functions like safe browsing features built into browsers. The advantages are it provides a friendlier experience for the user, not blocking their work, but informing and enabling users to improve their behavior.

For organizations with policies to control genAI application usage, 31% of them used coaching dialogs as of June 2024 compared to 20% of organizations in June 2023, an over 50% increase in adoption.

This tracks with growing sophistication of organizations in applying similar coaching controls from other security domains to newer ones such as genAI app risk. While the growth has flattened, coaching controls are relatively new as compared to outright blocks and alerts based on DLP or application. We expect the adoption to continue growing as more organizations understand how to use coaching to manage the grayer risks associated with data.

When we break down the actual user response to the coaching dialog alerts that have occurred, we see a measure of efficacy. For all users that received coaching dialog alerts for genAI apps, in 57% of those cases, users chose to stop the action they were performing, which reduced risk by users avoiding sending sensitive data in genAI app prompts or by avoiding the use of unknown or new genAI apps. 57% is high enough to bolster the case that coaching can be an effective control to complement explicit application blocks and DLP policies. Furthermore, coaching also enables feedback. When deciding to proceed, most organizations put policies in place that require users to justify their actions during the coaching interaction.

This is not to suggest that user decision-making be the basis for security policy. Rather, it indicates that for organizations that utilize coaching, approximately half of the genAI app usage that is not being outright blocked may be further reduced by user decisions. Just as important, user decisions in response to coaching dialogs can and should inform security policy review and adjustment. While user decisions can be faulty and risky, the two categorizations form the basis for further review. Applications that a user has decided not to use based on a coaching dialog should be analyzed for an outright block list. Applications that a user decided to use should be reviewed to be put on an allowed corporate standards list or perhaps blocked if there’s a better or more acceptable app. User responses to coaching prompts could also be used to refine more nuanced policies, like DLP policies, to be more targeted in their application.

 

Análise comportamental

We are seeing early signs of advanced detections of suspicious user behavior with regards to data movement that were detected by behavioral detection engines. Suspicious data movement often comprises multiple indicators of suspicious or unexpected behavior by a user with respect to the user’s or organization’s normal activity baseline. The indicators might involve anomalous download or upload activity, new or suspicious sources or targets of data such as new genAI apps, as well as other suspicious behavior such as use of an unexpected or obfuscated IP address or user agent.

One example of a detected, advanced behavioral alert for suspicious data movement involves the movement of data from an organization-managed application and uploaded to an unapproved, personal genAI app.

Similar to coaching, the list of apps appearing in these alerts can also be used to prioritize control efforts with genAI application usage. For example, two commonly used apps may overlap in functionality, and that alone might prioritize efforts to reduce the number of apps.

The use of behavioral alerts show the early awareness and adoption of organizations to find harder to detect threats, which has traditionally included compromised credentials, insider threats, lateral movement, and data exfiltration activities by malicious actors.

When we look closer at the sensitive data movements, we find that the top applications where the sensitive data originated reflect popularity of corporate cloud apps with OneDrive (34%) and Google Drive (29%) at the top, followed by SharePoint (21%) and Outlook (8%) and Gmail (6%).

The top 3 apps are all cloud storage and collaboration apps and were the source of the sensitive data 84% of the time, while the major email cloud apps were the source 14% of the time. By knowing which specific applications are involved more frequently in sensitive data movements, security teams can then adjust controls appropriately, for example, placing additional DLP controls around file-sharing applications. Organizations should prioritize security risk assessment and control implementation around data movement between apps, especially moving from managed apps to unmanaged genAI apps, as it is both becoming more common and potentially having large data loss impact.

 

Orientação link link

Based on the past twelve month trends, we recommend reviewing current security operations and risk assessment with a specific focus on AI and genAI specific changes required.

The framework for understanding and managing genAI risk involves reviewing security operations in five major areas with specific customization to genAI-specific risks:

  • Analysis, particularly risk assessment, of the current state of genAI app usage and user behavior.
  • Planning for risk analysis and implementation of controls.
  • Prevention controls including allowed genAI applications and DLP policies.
  • Detection controls, such as coaching and behavioral analysis.
  • Remediation/mitigation controls, including blocking new, inappropriate applications.

The first steps in analysis will be to inventory the genAI apps being used to form a baseline from which to plan. Then prevention and detection controls can be implemented with restriction of the allowed apps (acceptable application lists) and restriction of the data sent to those apps (DLP controls).

 

Criar uma linha de base de uso do aplicativo

By utilizing logs of secure web gateways or proxies and local DNS resolution, gather key metrics in:

  • App Popularity: which apps, how many times per week/month
  • Number of Users: with a minimum volume per week/month
  • User Volume: how much use (i.e. user transactions) per day/week/month, how much data (prompt/response size/volume)

Simple spreadsheet analysis can generate similar graphs as those shown in this report. With some simple automation, this can then be reviewed on a weekly or monthly basis to identify changes over time and outliers at any point in time.

 

Reduzir as incógnitas

From the application and usage baseline, the next step will be to remove the unknown or suspicious apps and enforce an acceptable app list. This reduces both attack surface and attack vectors. Specific measures include identifying an acceptable app list based on user work requirements, blocking unknown apps that are suspicious and training users to self-monitor with coaching techniques within your secure web gateways and proxies.

 

Reduzir a perda de dados confidenciais

Detecting advanced threats is non-trivial, but since insider threats and compromised credentials remain common, but difficult challenges, planning should be done for genAI threats as well. Although behavioral detection alerts are not part of genAI vendor offerings, they are part of existing cybersecurity platforms and solutions. These behavioral detection capabilities should be evaluated with a focus on genAI-specific threats. The number and type of specific alerts are the starting point.

Product evaluations should also include risk scoring and tracking in addition to alert detections. Behavioral detection is generally more effective with some concept of granular risk tracking of users and apps over time so that root cause analysis can be done at the user-level and app-level. For example, certain apps or users may cause more risk, and targeted remediation can help reduce risk.

 

Aperfeiçoar a estrutura de riscos

Risk frameworks need to be reviewed and adapted or tailored specifically to AI or genAI. Efforts such as the NIST AI Risk Management Framework[4] can be used in internal efforts.

Managing Artificial Intelligence-Specific Cybersecurity Risks in the Financial Services Sector by U.S. Department of Treasury, March 2024[5] is an excellent example of managing AI-risk within the financial services sector, but can also be adapted to your sector or organization.

A good risk management framework will support future planning for up-and-coming threat areas, such as the liability and legal risk from the use of information from genAI apps. This can be captured in an acceptable use policy (AUP) along with the guidelines for data submitted to genAI apps. This policy could be implemented as a combination of manual controls (training) and technical controls in a SWG/proxy.

Much of the improvement in long-term risk management will come from a consistent and regular iteration of gap analysis, prioritization, planning, and execution.

 

Perspectivas link link

Beyond specific technical measures to address genAI risk, organizations need to devote some time to tracking major trends in order to get ahead of probable changes in the next 12 months. We recommend tracking trends in five major areas: best practices, the big three enterprise vendors, genAI investment, infrastructure company growth and investment, and chat/LLM service provider adoption.

 

Best practices

Best practices and compliance frameworks tend to be lagging indicators in the sense that they are often created after a product or technology has widespread adoption and a large, established user base. Tracking these best practices is worthwhile, for prioritization based on common threat areas, gap analysis, and to assist in the implementation of concrete technical controls or risk management initiatives.

Two documents that are useful guidelines are the NIST AI Risk Management Framework[4] and the Managing Artificial Intelligence-Specific Cybersecurity Risks in the Financial Services Sector by U.S. Department of Treasury, March 2024[5].
In addition, track the ISAC for your industry, as best practices or sharing of indicators for AI-related risks will likely be discussed in those forums.

 

Impacto das três grandes empresas

Although there is a lot of discussion about startups including funding, valuations, revenues, and product releases, ultimately enterprises and their users will be most affected by what the major application, platform, and device vendors do.

The big three reach the highest number (100M to 1B+) of both consumer and enterprise users with their aggregate apps/platforms/devices:

  • Microsoft: Apps/AD/Azure/Surface/AI PCs
  • Google: Apps/Workspace/GCP/Android
  • Apple: iPhone/iPad/Mac

They have or are likely to make genAI free and built into existing services:

  • Microsoft: Copilot as part of Windows, Git, and Visual Studio
  • Google: Gemini as part of Google Search
  • Apple: Apple Intelligence and ChatGPT as part of iOS/MacOS

Organizations should track what Microsoft, Google,and Apple do in genAI. By focusing on the use cases and functionality used by their users, organizations will be better prepared for both the expected and probable over the next 12 months. For example, as engineering departments standardize on using GitHub Copilot for coding assistance, security policies should proactively implement app, DLP, and advanced detection controls around Copilot and similar apps.

 

Mais investimentos, inovação e ameaças

Venture capital does not sit on the sidelines (or in the bank) very long, and the $10B+ from Microsoft will assuredly be spent by OpenAI sooner rather than later. Companies with the most cash will ultimately drive the most R&D and product releases. These startups and their genAI services should be prioritized, as they represent the most probable source of risk, simply by virtue of their focus on rapid growth of market share and user count.

Some of the investment has flowed into companies offering new genAI services based on domain-specific datasets, which might be by profession (e.g. legal or medical information), or by language (e.g. Japanese to English professional text translation), or other areas of expertise. In the short-term, this causes more challenges for security teams due to the sheer number of apps to control, but ultimately, it will help as there is more specificity in the purpose of genAI apps, which will make app-level controls, and the associated DLP controls for an app, more effective and targeted. It is much more challenging to manage risk with a do-it-all general genAI app, such as ChatGPT, since the use cases and datasets could be almost anything and policies are likely to be too general.

Other companies, often in an effort to compete, will release fast, often, and “test in production.” And because of competitive pressures or market dynamics, large companies, in addition to startups, can also prioritize feature development and release over testing:

“It is important that we don’t hold back features just because there might be occasional problems, but more as we find the problems, we address them,” Liz Reid, who was promoted to the role of vice president of search at Google in March, said in a company-wide meeting, according to audio obtained by CNBC.[3]

This is not a judgment on the philosophy of moving fast to market, rather it is an observation of the thinking of vendors early in an innovation cycle. By watching the product and functionality releases of genAI vendors, one can anticipate risk areas before they become obvious. At a minimum, this should set expectations for rapid release cycles, trigger internal triage/assessments to evaluate new functionality, and raise questions of organizational control over the “version” of a genAI app they are using.

 

Empresas de infraestrutura

Many enterprises may focus on genAI apps and services as their users use them more. However, the underlying infrastructure companies, often public, and those providing hardware should be tracked to identify the future macro trends, especially investment. Much like the router business during the internet boom in the 1990s, infrastructure companies and their financial performance will be leading indicators of application and software investment and identify coming threat areas to analyze and plan for.

For example, looking at NVDA investment (e.g. data centers, SOC, PCs) and revenue/customer base expansion, one can see trends in the genAI applications or services markets.

Some financial tracking of public market investment from mutual funds and ETFs, as well as tracking of metrics such as market cap vs. revenues/earnings (price/sales), divergence in infrastructure revenues vs startup/software revenues, can also determine trends in R&D. R&D typically leads to product releases which lead to usage and risks.

 

Serviços de chat/LLM

It is clear that if an organization deploys their own chat service or search facility using genAI technology, there is a risk of other threats not discussed in this report, namely prompt attacks to bypass guardrails resulting in hallucinations or biased results, or other data injection attacks such as data poisoning. Organizations should spend time on these risks as they plan those projects.

As more organizations widely implement search or chat services on their websites that use LLM or other genAI apps, there will be an increase in attacks against all genAI services, because attackers generally follow increasing usage and the associated money.

These threat trends may then cause adjustment or review of an organization’s own genAI services, such as a sales chat service or support knowledge base search facility. Organizations who are, or are planning to be, service providers should periodically review their risk profiles based on this broader macro trend to see if their risk posture has changed and whether that affects their control framework for protection, detection, or mitigation of their exposed genAI services.

 

Uma perspectiva do CISO

While genAI holds immense promise for innovations and efficiency, it also introduces substantial risks that organizations must address proactively. The use of governance, technology, processes, and people should all be applied, leveraging a framework that supports a strong backstop for your initiatives. As we saw with this research, there were some surprises such as regulatory information being shared with services. While many organizations are adopting genAI solutions, the use of genAI as a shadow IT service when combined with regulatory information and sensitive data, such as secrets and passwords, is an exposure no organization wants to find themselves in. The only approach is to adopt a programmatic plan of action to address both tactical and strategic use and adoption. The research showed services being adopted followed by fast responses in valuation and funding. Often it is good to remember Newton’s second law can also be applied to accelerating adoption cycles and your organization can find itself quickly managing a threat that has changed overnight. While the landscape may change, the fast-paced adoption and trends can still be useful as a “forecast” where the “genAI weather ahead” can be used to drive conversation with industry peers and be used as a lens for other threat reports and research.

 

Conclusão link link

The proliferation of artificial intelligence (AI) technologies, particularly those driven by generative AI (genAI), has significantly impacted risk management across enterprises. GenAI, while promising innovation and efficiency gains, also introduces substantial risks that organizations must address proactively.

GenAI, with its ability to autonomously generate content, poses unique challenges. Enterprises must recognize that genAI-generated outputs can inadvertently expose sensitive information, propagate misinformation, or even introduce malicious content. As such, it becomes crucial to assess and mitigate these risks comprehensively.

The focus should be on data risk from genAI app usage, as data is at the core of genAI systems. Here are some specific tactical steps to addressing risk from genAI:

  • Know your current state: Begin by assessing your existing AI infrastructure, data pipelines, and genAI applications. Identify vulnerabilities and gaps in security controls.
  • Implement core controls: Establish fundamental security measures, such as access controls, authentication mechanisms, and encryption. These foundational controls form the basis for a secure AI environment.
  • Plan for advanced controls: Beyond the basics, develop a roadmap for advanced security controls. Consider threat modeling, anomaly detection, and continuous monitoring.
  • Measure, start, revise, iterate: Regularly evaluate the effectiveness of your security measures. Adapt and refine them based on real-world experiences and emerging threats.

When engaging with AI/genAI vendors, organizations should inquire about their data protection measures, encryption protocols, and compliance with privacy regulations.
Organizations must consider broader risk management issues including legal, ethical, and liability implications. Collaborate with existing internal risk management teams including legal, compliance, and risk stakeholders to review your risk management framework and adapt to AI and genAI risk areas. Leverage the NIST AI Risk Management Framework[4] to guide your organization’s own efforts.

Finally, stay informed about macro trends in AI and cybersecurity. Monitor developments in AI ethics, regulatory changes, and adversarial attacks. By anticipating emerging pain points and threat areas, enterprises can proactively adjust their risk mitigation strategies.
In summary, enterprises must navigate the evolving landscape of AI-related risk by combining technical expertise, strategic planning, and vigilance. genAI, while transformative, demands a robust risk management approach to safeguard data, reputation, and business continuity.

 

References link link

[1] The most promising artificial intelligence startups of 2024, CB Insights, https://www.cbinsights.com/research/report/artificial-intelligence-top-startups-2024/
[2] ChatGPT — Release Notes, OpenAI. https://help.openai.com/en/articles/6825453-chatgpt-release-notes
[3] TECH Google search head says ‘we won’t always find’ mistakes with AI products and have to take risks rolling them, CNBC. https://www.cnbc.com/2024/06/13/google-wont-always-find-mistakes-in-ai-search-vp-reid-tells-staff.html
[4] NIST AI Risk Management Framework, NIST. https://www.nist.gov/itl/ai-risk-management-framework
[5] Managing Artificial Intelligence-Specific Cybersecurity Risks in the Financial Services Sector by U.S. Department of Treasury, March 2024. https://home.treasury.gov/system/files/136/Managing-Artificial-Intelligence-Specific-Cybersecurity-Risks-In-The-Financial-Services-Sector.pdf

 

azul claro mais

Relatórios de nuvem e ameaças

O Netskope Cloud and Threat Report traz informações exclusivas sobre a adoção de aplicativos na nuvem, mudanças no panorama das ameaças preparadas para a nuvem e os riscos para os dados corporativos.

Storm with lightning over the city at night

Acelere seu programa de segurança com o líder em SASE.