Quantify the value of Netskope One SSE – Get the 2024 Forrester Total Economic Impact™ study

fechar
fechar
  • Por que Netskope divisa

    Mudando a forma como a rede e a segurança trabalham juntas.

  • Nossos clientes divisa

    A Netskope atende a mais de 3.400 clientes em todo o mundo, incluindo mais de 30 das empresas da Fortune 100

  • Nossos parceiros divisa

    Fazemos parceria com líderes de segurança para ajudá-lo a proteger sua jornada para a nuvem.

Líder em SSE. Agora é líder em SASE de fornecedor único.

Descubra por que a Netskope estreou como líder no Quadrante Mágico™ do Gartner® para Single-Vendor SASE

Obtenha o Relatório
Do Ponto de Vista do Cliente

Leia como os clientes inovadores estão navegando com sucesso no cenário atual de mudanças na rede & segurança por meio da plataforma Netskope One.

Baixe o eBook
Do Ponto de Vista do Cliente
A estratégia de comercialização da Netskope, focada em Parcerias, permite que nossos Parceiros maximizem seu crescimento e lucratividade enquanto transformam a segurança corporativa.

Saiba mais sobre os parceiros da Netskope
Grupo de diversos jovens profissionais sorrindo
Sua Rede do Amanhã

Planeje seu caminho rumo a uma rede mais rápida, segura e resiliente projetada para os aplicativos e usuários aos quais você oferece suporte.

Receba o whitepaper
Sua Rede do Amanhã
Netskope Cloud Exchange

O Cloud Exchange (CE) da Netskope oferece aos clientes ferramentas de integração poderosas para tirar proveito dos investimentos em estratégias de segurança.

Saiba mais sobre o Cloud Exchange
Vista aérea de uma cidade
  • Security Service Edge divisa

    Proteger-se contra ameaças avançadas e com nuvens e salvaguardar os dados em todos os vetores.

  • SD-WAN divisa

    Confidentemente, proporcionar acesso seguro e de alto desempenho a cada usuário remoto, dispositivo, site, e nuvem.

  • Secure Access Service Edge divisa

    O Netskope One SASE oferece uma solução SASE nativa da nuvem, totalmente convergente e de fornecedor único.

A plataforma do futuro é a Netskope

O Security Service Edge (SSE), o Cloud Access Security Broker (CASB), o Cloud Firewall, o Next Generation Secure Web Gateway (SWG) e o Private Access for ZTNA foram integrados nativamente em uma única solução para ajudar todas as empresas em sua jornada para a arquitetura Secure Access Service Edge (SASE).

Vá para a plataforma
Vídeo da Netskope
Next Gen SASE Branch é híbrida — conectada, segura e automatizada

Netskope Next Gen SASE Branch converge o Context-Aware SASE Fabric, Zero-Trust Hybrid Security e SkopeAI-Powered Cloud Orchestrator em uma oferta de nuvem unificada, inaugurando uma experiência de filial totalmente modernizada para empresas sem fronteiras.

Saiba mais sobre Next Gen SASE Branch
Pessoas no escritório de espaço aberto
SASE Architecture For Dummies (Arquitetura SASE para leigos)

Obtenha sua cópia gratuita do único guia de planejamento SASE que você realmente precisará.

Baixe o eBook
Livro eletrônico SASE Architecture For Dummies (Arquitetura SASE para leigos)
Mude para serviços de segurança na nuvem líderes de mercado com latência mínima e alta confiabilidade.

Conheça a NewEdge
Rodovia iluminada através de ziguezagues na encosta da montanha
Permita com segurança o uso de aplicativos generativos de IA com controle de acesso a aplicativos, treinamento de usuários em tempo real e a melhor proteção de dados da categoria.

Saiba como protegemos o uso de IA generativa
Ative com segurança o ChatGPT e a IA generativa
Soluções de zero trust para a implementação de SSE e SASE

Conheça o Zero Trust
Passeio de barco em mar aberto
Netskope obtém alta autorização do FedRAMP

Escolha o Netskope GovCloud para acelerar a transformação de sua agência.

Saiba mais sobre o Netskope GovCloud
Netskope GovCloud
  • Recursos divisa

    Saiba mais sobre como a Netskope pode ajudá-lo a proteger sua jornada para a nuvem.

  • Blog divisa

    Saiba como a Netskope permite a transformação da segurança e da rede por meio do serviço de acesso seguro de borda (SASE)

  • Eventos e workshops divisa

    Esteja atualizado sobre as últimas tendências de segurança e conecte-se com seus pares.

  • Security Defined divisa

    Tudo o que você precisa saber em nossa enciclopédia de segurança cibernética.

Podcast Security Visionaries

Previsões para 2025
Neste episódio de Security Visionaries, temos a companhia de Kiersten Todt, presidente da Wondros e ex-chefe de gabinete da Agência de Segurança Cibernética e de Infraestrutura (CISA), para discutir as previsões para 2025 e além.

Reproduzir o podcast Navegue por todos os podcasts
Previsões para 2025
Últimos blogs

Leia como a Netskope pode viabilizar a jornada Zero Trust e SASE por meio de recursos de borda de serviço de acesso seguro (SASE).

Leia o Blog
Nascer do sol e céu nublado
SASE Week 2024 On-Demand

Aprenda a navegar pelos últimos avanços em SASE e confiança zero e explore como essas estruturas estão se adaptando para enfrentar os desafios de segurança cibernética e infraestrutura

Explorar sessões
SASE Week 2024
O que é SASE?

Saiba mais sobre a futura convergência de ferramentas de redes e segurança no modelo predominante e atual de negócios na nuvem.

Saiba mais sobre a SASE
  • Empresa divisa

    Ajudamos você a antecipar os desafios da nuvem, dos dados e da segurança da rede.

  • Carreira divisa

    Junte-se aos mais de 3.000 membros incríveis da equipe da Netskope que estão criando a plataforma de segurança nativa da nuvem líder do setor.

  • Customer Solutions divisa

    Estamos aqui junto com você a cada passo da sua trajetória, assegurando seu sucesso com a Netskope.

  • Treinamento e credenciamentos divisa

    Os treinamentos da Netskope vão ajudar você a ser um especialista em segurança na nuvem.

Apoiando a sustentabilidade por meio da segurança de dados

A Netskope tem o orgulho de participar da Visão 2045: uma iniciativa destinada a aumentar a conscientização sobre o papel da indústria privada na sustentabilidade.

Saiba mais
Apoiando a sustentabilidade por meio da segurança de dados
Ajude a moldar o futuro da segurança na nuvem

Na Netskope, os fundadores e líderes trabalham lado a lado com seus colegas, até mesmo os especialistas mais renomados deixam seus egos na porta, e as melhores ideias vencem.

Faça parte da equipe
Vagas na Netskope
Netskope dedicated service and support professionals will ensure you successful deploy and experience the full value of our platform.

Ir para Soluções para Clientes
Netskope Professional Services
Proteja sua jornada de transformação digital e aproveite ao máximo seus aplicativos de nuvem, web e privados com o treinamento da Netskope.

Saiba mais sobre Treinamentos e Certificações
Grupo de jovens profissionais trabalhando

Relatório sobre nuvem e ameaças:
Aplicativos de IA na empresa

azul claro mais
Este relatório examina como as organizações estão equilibrando os benefícios dos aplicativos de IA generativa e, ao mesmo tempo, gerenciando os riscos associados, destacando uma estratégia cada vez mais popular que envolve DLP e treinamento interativo do usuário.
Nuvem escura sobre o pôr do sol
28 min de leitura

Resumo executivo link link

O Cloud and Threat Report deste ano sobre aplicativos de IA concentra-se especificamente nas tendências e nos riscos dos aplicativos de genAI, pois o uso da genAI tem crescido rapidamente com amplo alcance e grande impacto sobre os usuários corporativos. 96% das organizações pesquisadas têm usuários que usam genAI e o número de usuários triplicou nos últimos 12 meses. O uso dos aplicativos genAI no mundo real inclui ajuda com codificação, assistência à escrita, criação de apresentações e geração de vídeos e imagens. Esses casos de uso apresentam desafios de segurança de dados, especificamente como evitar que dados confidenciais, como código-fonte, dados regulamentados e propriedade intelectual, sejam enviados para aplicativos não aprovados.

Começamos este relatório observando as tendências de uso dos aplicativos de genAI, depois analisamos os riscos de base ampla introduzidos pelo uso da genAI, discutimos controles específicos que são eficazes e podem ajudar as organizações a melhorar diante de dados incompletos ou novas áreas de ameaças e terminamos com uma visão das tendências e implicações futuras.

Com base em milhões de atividades anônimas de usuários, o uso do aplicativo genAI passou por mudanças significativas de junho de 2023 a junho de 2024:

  • Praticamente todas as organizações agora usam aplicativos genAI, com o uso aumentando de 74% para 96% das organizações no último ano.
  • A adoção da GenAI está crescendo rapidamente e ainda não atingiu um estado estável. A organização média usa mais de três vezes o número de aplicativos genAI e tem quase três vezes o número de usuários que usam ativamente esses aplicativos do que há um ano.
  • O risco de dados é a principal preocupação dos primeiros usuários de aplicativos genAI, com o compartilhamento de código-fonte proprietário com aplicativos genAI representando 46% de todas as violações da política de dados.
  • A adoção de controles de segurança para habilitar com segurança os aplicativos genAI está em alta, com mais de três quartos das organizações usando políticas de bloqueio/permissão, DLP, treinamento de usuários ao vivo e outros controles para habilitar aplicativos genAI e, ao mesmo tempo, proteger os dados.

A IA em geral tem sido popular e atraído investimentos consideráveis, com financiamento totalizando mais de US$ 28 bilhões em mais de 240 negócios de capital de 2020 a 22/03/2024[1].

AI 100 Principais empresas por financiamento de capital

Com a OpenAI e a Anthropic totalizando quase dois terços (64%) do financiamento total, o financiamento da IA é dominado e impulsionado pela genAI. Isso reflete o crescente entusiasmo da genAI desde o lançamento do ChatGPT da OpenAI em novembro de 2022. Além das startups, foram criados vários ETFs e fundos mútuos voltados para IA, o que indica outro nível de financiamento por parte dos investidores do mercado público. O grande volume de investimentos proporcionará um impulso para pesquisa e desenvolvimento, lançamentos de produtos e riscos e abusos associados.

Índices de preço em relação às vendas muito elevados indicam que a execução está aquém das grandes expectativas dos investidores. A Hugging Face tem um múltiplo de 150x de uma avaliação de US$ 4,5 bilhões sobre receitas de US$ 30 milhões e a Perplexity um múltiplo de 65x de uma avaliação de US$ 520 milhões sobre receitas de US$ 8 milhões[1]:

AI 100 Múltiplo de receita por empresa

&Embora a receita real esteja atrasada, a atividade de lançamento de produtos é alta, o que indica que ainda estamos no início do ciclo de inovação de IA, com grandes investimentos em P&D. Por exemplo, houve 34 lançamentos de recursos (menores e maiores) do ChatGPT desde novembro de 2022[2], ou aproximadamente dois por mês.

Está claro que a genAI será o motor do investimento em IA no curto prazo e introduzirá o risco e o impacto mais amplos para os usuários corporativos. Ele é ou será incluído por padrão nas principais plataformas de aplicativos, pesquisa e dispositivos, com casos de uso como pesquisa, edição de cópias, ajuste de estilo/tom e criação de conteúdo. O principal risco decorre dos dados que os usuários enviam para os aplicativos, incluindo perda de dados, compartilhamento não intencional de informações confidenciais e uso inadequado de informações (direitos legais) dos serviços da genAI. Atualmente, os textos (LLMs) são mais usados, com seus casos de uso mais amplos, embora os aplicativos genAI para vídeo, imagens e outras mídias também sejam um fator.

Este relatório resume o uso e as tendências da genAI com base em dados anônimos de clientes nos últimos 12 meses, detalhando o uso do aplicativo, as ações do usuário, as áreas de risco e os controles iniciais, além de fornecer orientações prescritivas para os próximos 12 meses.

 

resposta de teste

About this report link link

A Netskope oferece proteção contra ameaças e dados a milhões de usuários em todo o mundo. As informações apresentadas neste relatório baseiam-se em dados de uso anônimos coletados pela plataforma Netskope Security Cloud em relação a um subconjunto de clientes da Netskope com autorização prévia. As estatísticas deste relatório se baseiam no período de treze meses, de 1º de junho de 2023 a 30 de junho de 2024.

Esse relatório inclui milhões de usuários em centenas de organizações em todo o mundo em vários setores, incluindo serviços financeiros, saúde, manufatura, telecomunicações e varejo. As organizações incluídas neste relatório têm, cada uma, mais de 1.000 usuários ativos.

 

sdofjsfojefgejelosij

Netskope Threat Labs link link

Com a equipe dos principais pesquisadores de malware e ameaças na nuvem do setor, o Netskope Threat Labs descobre, analisa e projeta defesas contra as mais recentes ameaças à Web, à nuvem e aos dados que afetam as empresas. Nossos pesquisadores são apresentadores regulares e voluntários nas principais conferências de segurança, incluindo DEF CON, Black Hat e RSAC.

 

Tendências link link

Quase todas as organizações usam aplicativos genAI

Nos cerca de 18 meses desde o lançamento público do ChatGPT em novembro de 2022, a grande maioria das organizações tem usuários que usam algum tipo de aplicativo de genAI. Isso tem aumentado constantemente de 74% em junho de 2023 para 96% em junho de 2024. Quase todas as organizações usam aplicativos genAI atualmente.

 

As organizações estão usando mais aplicativos genAI

O número de aplicativos genAI usados em cada organização está aumentando significativamente, mais do que triplicando de uma média de 3 aplicativos genAI diferentes em junho de 2023 para mais de 9,6 aplicativos em junho de 2024. O crescimento é ainda mais significativo quando se observa os extremos superiores. Os 25% principais das organizações cresceram de 6 aplicativos para 24 aplicativos, e o 1% principal (não ilustrado) cresceu de 14 para 80 aplicativos.

Essa tendência é compreensível devido ao aumento das ofertas de genAI no início de um ciclo de inovação tecnológica, impulsionado pelo investimento significativo e pela empolgação com as oportunidades que elas oferecem para aumentar a eficiência da organização. A implicação para as organizações que gerenciam o risco de seus usuários é que o número de ofertas de GenAI em uso continua a crescer, apresentando um alvo móvel ao analisar os controles de risco, que discutiremos mais adiante neste relatório.

 

Principais aplicativos genAI

Os principais aplicativos de IA em uso mudaram no último ano. Em junho de 2023, o ChatGPT, o Grammarly e o Google Bard (agora Gemini) eram os únicos aplicativos genAI importantes com um número significativo de usuários corporativos. A partir de junho de 2024, haverá mais aplicativos GenAI disponíveis com uso significativo. Esse relatório abrange quase 200 aplicativos diferentes que estão sendo rastreados pelo Netskope Threat Labs. O ChatGPT continua dominando a popularidade, com 80% das organizações usando-o, enquanto o Microsoft Copilot, que se tornou disponível em janeiro de 2024, está em terceiro lugar, com 57% das organizações usando-o. O Grammarly e o Google Gemini (antigo Bard) mantêm classificações altas.

O crescimento ao longo do tempo mostra aumentos constantes para todos os aplicativos, com a notável exceção do Microsoft Copilot, que cresceu em uso para 57% de todas as organizações pesquisadas nos seis meses desde o lançamento. Isso mostra, em parte, as altas taxas de adoção da base instalada corporativa da Microsoft para novas ofertas da Microsoft.

A lista dos aplicativos de genAI mais populares inclui uma variedade de recém-chegados, que oscilarão ao longo do próximo ano. A categorização de cada um desses aplicativos também é interessante, pois indica quais são os casos de uso mais populares para aplicativos genAI de usuários corporativos.

Categorias de aplicativos GenAI mais populares

Aplicativo GenAICategory
ChatGPTPesquisa, Geral
GrammarlyRedação
GêmeosPesquisa, Geral
Microsoft CopilotPesquisa, Geral
IA de perplexidadePesquisa, Geral
QuillBotRedação
RAÇÃOPesquisa
Base de bate-papoGeral, Pesquisa
WritesonicRedação
GamaApresentações

Esperamos que os principais aplicativos mudem significativamente no próximo ano e tenham uma aparência muito diferente no relatório do ano que vem. Haverá também consolidação adicional, bem como relações com fabricantes de equipamentos originais (OEM). Por exemplo, o Chatbase oferece os modelos ChatGPT e Gemini como opções. Do ponto de vista da participação no mercado, talvez queiramos agrupar a atividade de aplicativos por tecnologia subjacente. No entanto, do ponto de vista do risco da organização, o agrupamento por aplicativo voltado para o usuário é mais importante porque os controles de segurança geralmente diferem por aplicativo e incorporam domínios/URLs em algum nível para distinguir os aplicativos. Ou seja, poderia muito bem haver uma política para banir o ChatGPT propriamente dito, mas permitir o Chatbase usando o ChatGPT por baixo. Como seus casos de uso são diferentes, o gerenciamento de riscos e os controles são diferentes.

 

A atividade do usuário está aumentando

Não apenas as organizações estão usando mais aplicativos genAI, mas o volume de atividade do usuário com esses aplicativos também está aumentando. Embora a porcentagem geral de usuários que usam aplicativos genAI ainda seja relativamente baixa, a taxa de aumento é significativa, passando de 1,7% em junho de 2023 para mais de 5% em junho de 2024, quase triplicando em 12 meses para a organização média. Mesmo as organizações com um número de usuários acima da média por mês tiveram uma adoção significativa da genAI ano a ano: os 25% principais das organizações cresceram de 7% para 15% usando aplicativos de genAI. Independentemente do tamanho da organização, continuamos a ver um crescimento na adoção da genAI que continuará no próximo ano, pois ainda não vimos sinais de achatamento das taxas de crescimento.

 

Risks link link

Os dados ainda são o ativo mais importante a ser protegido quando os aplicativos genAI estão em uso. Os usuários ainda são os principais responsáveis por causar e evitar riscos aos dados e, atualmente, os riscos de segurança mais urgentes para os usuários da GenAI estão todos relacionados aos dados.
É útil considerar o risco dos dados do ponto de vista do usuário em duas dimensões:

  • Quais dados os usuários enviam para os serviços do genAI?
  • Quais dados os usuários recebem e usam dos serviços do genAI?

Entrada: Envio de dados

Saída: Resultados dos dados

Quais dados os usuários enviam para os serviços do genAI?

Quais dados os usuários recebem e usam dos serviços do genAI?

Riscos:

  • Aplicativos desconhecidos/suspeitos

  • Vazamento de dados: PII, credenciais, direitos autorais, segredos comerciais, HIPAA/GDPR/PCI

Riscos:

  • Correção: alucinações, desinformação

  • Jurídico: violações de direitos autorais

  • Econômicos: eficiência no trabalho, substituição

  • Engenharia social: phishing, deepfakes

  • Chantagem

  • Conteúdo questionável

Entre as organizações incluídas neste estudo, os riscos e as ameaças reconhecidos nos últimos 12 meses estão concentrados no uso de aplicativos e nos riscos de dados, o que geralmente acontece nos estágios iniciais dos mercados focados em aplicativos ou serviços. Além disso, os riscos sobre os quais se está agindo estão no lado esquerdo da tabela: os riscos de dados associados aos usuários que enviam prompts para os aplicativos genAI, em oposição ao lado direito da tabela, que se refere ao risco de usar dados provenientes ou que parecem vir dos serviços genAI. Essa priorização faz sentido para a maioria das organizações: a primeira prioridade tende a ser a proteção dos ativos de informação de uma organização, e o que virá depois são problemas de responsabilidade ou correção com o uso do conteúdo dos aplicativos genAI.

Ao enumerar e priorizar ainda mais os riscos nesse nível, as organizações poderão não apenas entender melhor os riscos específicos de seus aplicativos genAI, mas também determinar quais controles e políticas são necessários para lidar com esses riscos.

 

Controls link link

Como os riscos iniciais no mercado de genAI se concentraram no envio de dados pelos usuários, os controles no lado esquerdo da tabela também foram a prioridade para as organizações. Esses controles são discutidos em mais detalhes abaixo.

Entrada: Envio de dados

Saída: Resultados dos dados

Quais dados os usuários enviam para os serviços do genAI?

Quais dados os usuários recebem e usam dos serviços do genAI?

Riscos:

  • Aplicativos desconhecidos/suspeitos

  • Vazamento de dados: PII, credenciais, direitos autorais, segredos comerciais, HIPAA/GDPR/PCI

Riscos:

  • Correção: alucinações, desinformação

  • Jurídico: violações de direitos autorais

  • Econômicos: eficiência no trabalho, substituição

  • Engenharia social: phishing, deepfakes

  • Chantagem

  • Conteúdo questionável

Controls:

  • AUP: restringir quais aplicativos estão sendo usados

  • DLP: prevenção/bloqueio

  • Treinamento/coaching de usuários

  • Detecção avançada de movimentação suspeita de dados

Controls:

  • AUP: quais dados de quais aplicativos, para qual finalidade

  • Políticas de referência/fonte de dados

  • Esclarecimentos/ferramentas/processos sobre o cargo

  • Anti-phishing

  • Detecção de deepfake/hallucination (auditoria de dados)

  • Rastreabilidade de dados/impressão digital

 

Aplicativos

O ponto de partida para o risco do aplicativo genAI são os próprios aplicativos. Na prática, os controles de aplicativos também são o ponto de partida para controlar esse risco, normalmente implementados como listas de permissão ou bloqueio em um SWG ou proxy em linha.

A maioria das organizações restringiu o uso de aplicativos genAI para proteger seus dados, com 77% das organizações bloqueando pelo menos um aplicativo genAI em junho de 2024, o que representa um aumento de 45% em relação aos 53% das organizações em junho de 2023.

Essa tendência indica boa maturidade e adoção de controles básicos em relação ao uso de aplicativos genAI. Controlar quais aplicativos são usados em uma organização é um ponto de partida necessário para reduzir os riscos. No entanto, serão necessários controles mais granulares para serem eficazes. O uso específico de um aplicativo geralmente determina se a atividade deve ser permitida ou não. Por exemplo, uma pesquisa geral no ChatGPT deve ser permitida, enquanto o envio do código-fonte não deve.

Analisando mais detalhadamente os aplicativos bloqueados, o número médio de aplicativos bloqueados para todos os usuários de uma organização também tem aumentado, de 0,6 aplicativo em junho de 2023 para mais de 2,6 aplicativos em junho de 2024. O fato de haver tão poucas proibições de aplicativos genAI em toda a organização, em comparação com as centenas de aplicativos genAI no mercado, aponta para a popularidade de outros controles mais matizados, que discutiremos em mais detalhes posteriormente neste relatório.

Os aplicativos genAI mais bloqueados estão de certa forma relacionados à popularidade, mas um número razoável de aplicativos menos populares são os mais bloqueados. Das organizações que bloqueiam aplicativos de genAI, 28% bloqueiam o Beautifal.ai (tornando-o o aplicativo de genAI mais comumente bloqueado) e 19% bloqueiam o Perplexity AI, que é o décimo aplicativo mais comumente bloqueado. Muitas vezes, os bloqueios podem ser uma medida temporária, pois os novos aplicativos são avaliados para determinar se atendem a alguma finalidade comercial legítima e se são seguros para determinados casos de uso.

Os aplicativos específicos que são bloqueados variam de acordo com a política da organização, mas quando as porcentagens são altas o suficiente, como na lista dos 10 principais acima, vale a pena que todas as organizações analisem se os aplicativos específicos são usados em seu próprio ambiente, bem como se devem ajustar os controles em torno da categoria de aplicativos. A tabela a seguir mostra que os aplicativos mais bloqueados abrangem uma variedade de casos de uso diferentes no espaço da genAI.

Categorias de aplicativos GenAI mais bloqueadas

Aplicativo GenAICategory
Beautiful.aiApresentações
WritesonicRedação
CraiyonImages
TactiqTranscrição de reuniões de negócios (Zoom, Meet)
AIChattingGeral, Pesquisa, Redação, Sumarização de PDF
Copiloto do GithubCodificação
DeepAIGeral, Pesquisa, Bate-papo, Imagem, Vídeo
scitePesquisa
IA de PoeGeral, Pesquisa
IA de perplexidadeGeral, Pesquisa

 

Prevenção contra a perda de dados (Data Loss Prevention - DLP)

À medida que as organizações amadurecem e vão além das listas de aplicativos permitidos, elas tendem a começar a implementar controles mais detalhados sobre o uso dos aplicativos permitidos. Não é de surpreender que os controles de DLP estejam crescendo em popularidade como um controle de risco de dados da genAI. A popularidade da prevenção contra perda de dados aumentou de 24% em junho de 2023 para mais de 42% das organizações que usam DLP para controlar os tipos de dados enviados aos aplicativos genAI em junho de 2024, um crescimento de mais de 75% em relação ao ano anterior.

O aumento nos controles de DLP reflete um entendimento entre as organizações sobre como mitigar efetivamente o risco de dados em meio à tendência maior e ampla de aumento do uso de aplicativos de genAI. Dentro das políticas de DLP, as organizações estão procurando controlar fluxos de dados específicos, especialmente para bloquear prompts de genAI que contenham informações sensíveis ou confidenciais. Em organizações com políticas de proteção de dados, o código-fonte é responsável por quase metade (46%) de todas as violações de DLP, com dados regulamentados por normas do setor ou requisitos de conformidade em 35% e propriedade intelectual em 15%. Os dados regulamentados têm sido uma das principais áreas de violação antes da GenAI e reforçam os desafios com o treinamento manual dos usuários no compartilhamento inadequado de dados regulamentados.


A publicação de dados confidenciais em aplicativos genAI não apenas reflete as prioridades atuais das organizações, mas também mostra a utilidade de vários aplicativos genAI. Por exemplo, a popularidade do GitHub Copilot, juntamente com a participação de mercado da Microsoft como plataforma de desenvolvimento de software, pode impulsionar um maior uso do genAI para geração de código no futuro.

 

Coaching

Embora os aplicativos ou atividades obviamente mal-intencionados sejam bem atendidos por controles que bloqueiam e alertam, o risco dos dados costuma ser mais uma área cinzenta. Os controles de coaching podem ser uma técnica altamente eficaz para lidar com áreas cinzentas, especialmente nos primeiros ciclos de tecnologia de rápida evolução, como a genAI. Além disso, as organizações podem usar o coaching para informar e refinar os controles de segurança sem bloquear a produtividade com falsos positivos e processos de aprovação lentos.

Os controles de treinamento fornecem uma caixa de diálogo de aviso ao usuário durante a interação com os aplicativos genAI, permitindo que ele cancele ou prossiga com suas ações. Ele funciona como os recursos de navegação segura incorporados aos navegadores. As vantagens são que ele proporciona uma experiência mais amigável para o usuário, não bloqueando seu trabalho, mas informando e permitindo que os usuários melhorem seu comportamento.

Para organizações com políticas para controlar o uso de aplicativos genAI, 31% delas usaram diálogos de treinamento em junho de 2024, em comparação com 20% das organizações em junho de 2023, um aumento de mais de 50% na adoção.

Isso acompanha a crescente sofisticação das organizações na aplicação de controles de treinamento semelhantes de outros domínios de segurança a outros mais novos, como o risco de aplicativos genAI. Embora o crescimento tenha se estabilizado, os controles de treinamento são relativamente novos em comparação com os bloqueios e alertas diretos baseados em DLP ou aplicativo. Esperamos que a adoção continue crescendo à medida que mais organizações entendam como usar o coaching para gerenciar os riscos mais graves associados aos dados.

Quando analisamos a resposta real do usuário aos alertas de diálogo de treinamento que ocorreram, vemos uma medida de eficácia. Para todos os usuários que receberam alertas de diálogo de treinamento para aplicativos genAI, em 57% desses casos, os usuários optaram por interromper a ação que estavam executando, o que reduziu o risco, pois os usuários evitaram enviar dados confidenciais em solicitações de aplicativos genAI ou evitaram o uso de aplicativos genAI novos ou desconhecidos. 57% é alto o suficiente para reforçar o argumento de que a orientação pode ser um controle eficaz para complementar os bloqueios explícitos de aplicativos e as políticas de DLP. Além disso, o coaching também permite o feedback. Ao decidir prosseguir, a maioria das organizações implementa políticas que exigem que os usuários justifiquem suas ações durante a interação de coaching.

Isso não significa sugerir que a tomada de decisão do usuário seja a base da política de segurança. Em vez disso, isso indica que, para as organizações que utilizam coaching, aproximadamente metade do uso do aplicativo genAI que não está sendo totalmente bloqueado pode ser reduzido ainda mais por decisões do usuário. Igualmente importante, as decisões do usuário em resposta aos diálogos de orientação podem e devem informar a revisão e o ajuste da política de segurança. Embora as decisões do usuário possam ser falhas e arriscadas, as duas categorizações formam a base para uma análise mais aprofundada. Os aplicativos que um usuário decidiu não usar com base em um diálogo de treinamento devem ser analisados para uma lista de bloqueio definitivo. Os aplicativos que um usuário decidiu usar devem ser analisados para serem colocados em uma lista de padrões corporativos permitidos ou talvez bloqueados se houver um aplicativo melhor ou mais aceitável. As respostas dos usuários às solicitações de treinamento também podem ser usadas para refinar políticas com mais nuances, como as políticas de DLP, para que sejam mais direcionadas em sua aplicação.

 

Análise comportamental

Estamos vendo os primeiros sinais de detecções avançadas de comportamentos suspeitos de usuários com relação à movimentação de dados que foram detectados por mecanismos de detecção comportamental. A movimentação suspeita de dados geralmente inclui vários indicadores de comportamento suspeito ou inesperado de um usuário em relação à linha de base da atividade normal do usuário ou da organização. Os indicadores podem envolver atividades anômalas de download ou upload, fontes ou alvos de dados novos ou suspeitos, como novos aplicativos genAI, bem como outros comportamentos suspeitos, como o uso de um endereço IP ou agente de usuário inesperado ou ofuscado.

Um exemplo de alerta comportamental avançado detectado para movimentação suspeita de dados envolve a movimentação de dados de um aplicativo gerenciado pela organização e carregado em um aplicativo genAI pessoal não aprovado.

Semelhante ao treinamento, a lista de aplicativos que aparecem nesses alertas também pode ser usada para priorizar os esforços de controle com o uso do aplicativo genAI. Por exemplo, dois aplicativos usados com frequência podem se sobrepor em termos de funcionalidade, e isso, por si só, pode priorizar os esforços para reduzir o número de aplicativos.

O uso de alertas comportamentais mostra a conscientização e a adoção antecipada das organizações para encontrar ameaças mais difíceis de detectar, que tradicionalmente incluem credenciais comprometidas, ameaças internas, movimentação lateral e atividades de exfiltração de dados por agentes mal-intencionados.

Quando analisamos mais de perto as movimentações de dados confidenciais, descobrimos que os principais aplicativos de origem dos dados confidenciais refletem a popularidade dos aplicativos corporativos em nuvem, com o OneDrive (34%) e o Google Drive (29%) no topo, seguidos pelo SharePoint (21%), Outlook (8%) e Gmail (6%).

Os três principais aplicativos são todos de armazenamento em nuvem e colaboração e foram a fonte dos dados confidenciais em 84% das vezes, enquanto os principais aplicativos de e-mail em nuvem foram a fonte em 14% das vezes. Ao saber quais aplicativos específicos estão envolvidos com mais frequência em movimentações de dados confidenciais, as equipes de segurança podem ajustar os controles adequadamente, por exemplo, colocando controles DLP adicionais em aplicativos de compartilhamento de arquivos. As organizações devem priorizar a avaliação de risco de segurança e a implementação de controle em torno da movimentação de dados entre aplicativos, especialmente a movimentação de aplicativos gerenciados para aplicativos genAI não gerenciados, pois isso está se tornando mais comum e pode ter um grande impacto na perda de dados.

 

Orientação link link

Com base nas tendências dos últimos doze meses, recomendamos revisar as operações de segurança atuais e a avaliação de riscos com um foco específico nas mudanças necessárias para a IA e a genAI.

A estrutura para compreender e gerenciar o risco da genAI envolve a análise das operações de segurança em cinco áreas principais, com personalização específica para os riscos específicos da genAI:

  • Análise, especialmente avaliação de risco, do estado atual do uso do aplicativo genAI e do comportamento do usuário.
  • Planejamento para análise de riscos e implementação de controles.
  • Controles de prevenção, incluindo aplicativos genAI permitidos e políticas de DLP.
  • Controles de detecção, como treinamento e análise comportamental.
  • Controles de correção/mitigação, incluindo o bloqueio de aplicativos novos e inadequados.

As primeiras etapas da análise serão inventariar os aplicativos genAI que estão sendo usados para formar uma linha de base a partir da qual planejar. Em seguida, os controles de prevenção e detecção podem ser implementados com a restrição dos aplicativos permitidos (listas de aplicativos aceitáveis) e a restrição dos dados enviados a esses aplicativos (controles DLP).

 

Criar uma linha de base de uso do aplicativo

Utilizando registros de gateways ou proxies seguros da Web e resolução de DNS local, reúna as principais métricas:

  • Popularidade do aplicativo: quais aplicativos, quantas vezes por semana/mês
  • Número de usuários: com um volume mínimo por semana/mês
  • Volume do usuário: a quantidade de uso (ou seja, o transações de usuários) por dia/semana/mês, a quantidade de dados (tamanho/volume do prompt/resposta)

Uma simples análise de planilha pode gerar gráficos semelhantes aos mostrados neste relatório. Com alguma automação simples, isso pode ser revisado semanal ou mensalmente para identificar mudanças ao longo do tempo e exceções em qualquer momento.

 

Reduzir as incógnitas

A partir da linha de base de aplicativos e uso, a próxima etapa será remover os aplicativos desconhecidos ou suspeitos e aplicar uma lista de aplicativos aceitáveis. Isso reduz a superfície de ataque e os vetores de ataque. As medidas específicas incluem a identificação de uma lista de aplicativos aceitáveis com base nos requisitos de trabalho do usuário, o bloqueio de aplicativos desconhecidos que sejam suspeitos e o treinamento dos usuários para se automonitorarem com técnicas de treinamento em seus gateways e proxies seguros da Web.

 

Reduzir a perda de dados confidenciais

A detecção de ameaças avançadas não é trivial, mas como as ameaças internas e o comprometimento de credenciais continuam sendo desafios comuns, porém difíceis, o planejamento deve ser feito também para as ameaças genAI. Embora os alertas de detecção comportamental não façam parte das ofertas dos fornecedores de genAI, eles fazem parte das plataformas e soluções de segurança cibernética existentes. Esses recursos de detecção comportamental devem ser avaliados com foco nas ameaças específicas da genAI. O número e o tipo de alertas específicos são o ponto de partida.

As avaliações de produtos também devem incluir pontuação e rastreamento de riscos, além de detecções de alertas. A detecção comportamental geralmente é mais eficaz com algum conceito de rastreamento de risco granular de usuários e aplicativos ao longo do tempo, de modo que a análise da causa raiz possa ser feita no nível do usuário e do aplicativo. Por exemplo, determinados aplicativos ou usuários podem causar mais riscos, e a correção direcionada pode ajudar a reduzi-los.

 

Aperfeiçoar a estrutura de riscos

As estruturas de risco precisam ser revisadas e adaptadas ou ajustadas especificamente para a IA ou genAI. Esforços como a estrutura de gerenciamento de riscos de IA do NIST[4] podem ser usados em esforços internos.

Managing Artificial Intelligence-Specific Cybersecurity Risks in the Financial Services Sector (Gerenciando riscos de segurança cibernética específicos de inteligência artificial no setor de serviços financeiros) pelo Departamento do Tesouro dos EUA, março de 2024[5] é um excelente exemplo de gerenciamento de risco de IA no setor de serviços financeiros, mas também pode ser adaptado ao seu setor ou organização.

Uma boa estrutura de gerenciamento de riscos dará suporte ao planejamento futuro para áreas de ameaças emergentes, como a responsabilidade e o risco legal do uso de informações de aplicativos genAI. Isso pode ser capturado em uma política de uso aceitável (AUP) juntamente com as diretrizes para os dados enviados aos aplicativos genAI. Essa política poderia ser implementada como uma combinação de controles manuais (treinamento) e controles técnicos em um SWG/proxy.

Grande parte da melhoria no gerenciamento de riscos de longo prazo virá de uma iteração consistente e regular de análise de lacunas, priorização, planejamento e execução.

 

Perspectivas link link

Além das medidas técnicas específicas para lidar com o risco da genAI, as organizações precisam dedicar algum tempo para acompanhar as principais tendências a fim de se antecipar às prováveis mudanças nos próximos 12 meses. Recomendamos acompanhar as tendências em cinco áreas principais: práticas recomendadas, os três grandes fornecedores empresariais, investimento em genAI, crescimento e investimento de empresas de infraestrutura e adoção de provedores de serviços de chat/LLM.

 

Best practices

As práticas recomendadas e as estruturas de conformidade tendem a ser indicadores defasados, no sentido de que geralmente são criadas depois que um produto ou tecnologia é amplamente adotado e tem uma base de usuários grande e estabelecida. Vale a pena monitorar essas práticas recomendadas para priorização com base em áreas de ameaças comuns, análise de lacunas e para auxiliar na implementação de controles técnicos concretos ou iniciativas de gerenciamento de riscos.

Dois documentos que são diretrizes úteis são o NIST AI Risk Management Framework[4] e o Managing Artificial Intelligence-Specific Cybersecurity Risks in the Financial Services Sector, do Departamento do Tesouro dos EUA, de março de 2024[5].
Além disso, acompanhe o ISAC do seu setor, pois as práticas recomendadas ou o compartilhamento de indicadores de riscos relacionados à IA provavelmente serão discutidos nesses fóruns.

 

Impacto das três grandes empresas

Embora haja muita discussão sobre startups, incluindo financiamento, avaliações, receitas e lançamentos de produtos, em última análise, as empresas e seus usuários serão mais afetados pelo que os principais fornecedores de aplicativos, plataformas e dispositivos fizerem.

As três grandes alcançam o maior número (100 milhões a mais de 1 bilhão) de usuários corporativos e consumidores com seus aplicativos/plataformas/dispositivos agregados:

  • Microsoft: Apps/AD/Azure/Surface/AI PCs
  • Google: Aplicativos/Workspace/GCP/Android
  • Apple: iPhone/iPad/Mac

Eles tornaram ou provavelmente tornarão a genAI gratuita e integrada aos serviços existentes:

  • Microsoft: Copilot como parte do Windows, Git e Visual Studio
  • Google: Gemini como parte da Pesquisa Google
  • Apple: Apple Intelligence e ChatGPT como parte do iOS/MacOS

As organizações devem acompanhar o que a Microsoft, o Google e a Apple fazem em termos de genAI. Ao se concentrarem nos casos de uso e na funcionalidade utilizada por seus usuários, as organizações estarão mais bem preparadas tanto para o esperado quanto para o provável nos próximos 12 meses. Por exemplo, à medida que os departamentos de engenharia padronizam o uso do GitHub Copilot para assistência de codificação, as políticas de segurança devem implementar proativamente controles de aplicativos, DLP e detecção avançada em torno do Copilot e de aplicativos semelhantes.

 

Mais investimentos, inovação e ameaças

O capital de risco não fica à margem (ou no banco) por muito tempo, e os mais de US$ 10 bilhões da Microsoft certamente serão gastos pela OpenAI mais cedo ou mais tarde. &As empresas com mais dinheiro acabarão impulsionando o maior número de P&D e lançamentos de produtos. Essas startups e seus serviços de genAI devem ser priorizados, pois representam a fonte mais provável de risco, simplesmente em virtude de seu foco no rápido crescimento da participação de mercado e do número de usuários.

Parte do investimento foi direcionado a empresas que oferecem novos serviços de genAI com base em conjuntos de dados específicos do domínio, que podem ser por profissão (por exemplo, o informações jurídicas ou médicas), ou por idioma (por exemplo, o Tradução profissional de textos do japonês para o inglês) ou outras áreas de especialização. No curto prazo, isso causa mais desafios para as equipes de segurança devido ao grande número de aplicativos a serem controlados, mas, em última análise, ajudará, pois há mais especificidade na finalidade dos aplicativos genAI, o que tornará os controles no nível do aplicativo e os controles DLP associados a um aplicativo mais eficazes e direcionados. É muito mais desafiador gerenciar riscos com um aplicativo genAI geral do tipo "faça tudo", como o ChatGPT, uma vez que os casos de uso e os conjuntos de dados podem ser praticamente qualquer coisa e as políticas provavelmente serão muito gerais.

Outras empresas, muitas vezes em um esforço para competir, lançam rapidamente, com frequência e "testam na produção". E, devido às pressões competitivas ou à dinâmica do mercado, as grandes empresas, além das startups, também podem priorizar o desenvolvimento e o lançamento de recursos em detrimento dos testes:

"É importante que não retenhamos os recursos apenas porque pode haver problemas ocasionais, mas, à medida que encontramos os problemas, nós os resolvemos", disse Liz Reid, que foi promovida ao cargo de vice-presidente de pesquisa do Google em março, em uma reunião com toda a empresa, de acordo com áudio obtido pela CNBC.[3]

Não se trata de um julgamento sobre a filosofia de entrar rapidamente no mercado, mas sim de uma observação sobre o pensamento dos fornecedores no início do ciclo de inovação. Observando os lançamentos de produtos e funcionalidades dos fornecedores de genAI, é possível antecipar as áreas de risco antes que elas se tornem óbvias. No mínimo, isso deve definir expectativas para ciclos de lançamento rápidos, acionar triagens/avaliações internas para avaliar a nova funcionalidade e levantar questões de controle organizacional sobre a "versão" de um aplicativo genAI que estão usando.

 

Empresas de infraestrutura

Muitas empresas podem se concentrar em aplicativos e serviços de genAI à medida que seus usuários os utilizam mais. No entanto, as empresas de infraestrutura subjacentes, geralmente públicas, e as que fornecem hardware devem ser monitoradas para identificar as tendências macro futuras, especialmente os investimentos. Assim como o negócio de roteadores durante o boom da Internet na década de 1990, as empresas de infraestrutura e seu desempenho financeiro serão os principais indicadores de investimento em aplicativos e software e identificarão as próximas áreas de ameaça a serem analisadas e planejadas.

Por exemplo, observando o investimento da NVDA (por exemplo, a data centers, SOC, PCs) e expansão da receita/base de clientes, é possível observar tendências nos mercados de aplicativos ou serviços de genAI.

&Alguns acompanhamentos financeiros de investimentos no mercado público de fundos mútuos e ETFs, bem como o acompanhamento de métricas como capitalização de mercado vs. receitas/lucros (preço/vendas), divergência entre receitas de infraestrutura e receitas de startups/software, também podem determinar tendências em P&D. O R&D normalmente leva a lançamentos de produtos que levam ao uso e a riscos.

 

Serviços de chat/LLM

É claro que, se uma organização implantar seu próprio serviço de bate-papo ou recurso de pesquisa usando a tecnologia genAI, há o risco de outras ameaças não discutidas neste relatório, ou seja, ataques rápidos para contornar as proteções, resultando em alucinações ou resultados tendenciosos, ou outros ataques de injeção de dados, como envenenamento de dados. As organizações devem dedicar tempo a esses riscos ao planejar esses projetos.

À medida que mais organizações implementarem amplamente serviços de pesquisa ou bate-papo em seus sites que usam LLM ou outros aplicativos de genAI, haverá um aumento nos ataques contra todos os serviços de genAI, porque os invasores geralmente acompanham o aumento do uso e do dinheiro associado.

Essas tendências de ameaças podem, então, causar ajustes ou revisões dos próprios serviços de genAI de uma organização, como um serviço de bate-papo de vendas ou um recurso de pesquisa na base de conhecimento de suporte. As organizações que são, ou planejam ser, provedores de serviços devem revisar periodicamente seus perfis de risco com base nessa tendência macro mais ampla para verificar se sua postura de risco mudou e se isso afeta sua estrutura de controle para proteção, detecção ou mitigação de seus serviços genAI expostos.

 

Uma perspectiva do CISO

Embora a genAI seja imensamente promissora em termos de inovações e eficiência, ela também apresenta riscos substanciais que as organizações devem enfrentar de forma proativa. O uso da governança, da tecnologia, dos processos e das pessoas deve ser aplicado, aproveitando uma estrutura que ofereça um forte apoio às suas iniciativas. Como vimos nesta pesquisa, houve algumas surpresas, como o compartilhamento de informações regulatórias com os serviços. Embora muitas organizações estejam adotando soluções de genAI, o uso da genAI como um serviço de TI paralelo, quando combinado com informações regulamentares e dados confidenciais, como segredos e senhas, é uma exposição em que nenhuma organização deseja se encontrar. A única abordagem é adotar um plano de ação programático para abordar o uso e a adoção táticos e estratégicos. A pesquisa mostrou que os serviços estão sendo adotados, seguidos de respostas rápidas em termos de avaliação e financiamento. Muitas vezes, é bom lembrar que a segunda lei de Newton também pode ser aplicada à aceleração dos ciclos de adoção, e sua organização pode se ver gerenciando rapidamente uma ameaça que mudou da noite para o dia. Embora o cenário possa mudar, a adoção e as tendências em ritmo acelerado ainda podem ser úteis como uma "previsão", em que o "clima da genAI à frente" pode ser usado para impulsionar conversas com colegas do setor e ser usado como uma lente para outros relatórios e pesquisas sobre ameaças.

 

Conclusão link link

A proliferação de tecnologias de inteligência artificial (IA), especialmente aquelas impulsionadas pela IA generativa (genAI), impactou significativamente o gerenciamento de riscos nas empresas. A GenAI, embora prometa inovação e ganhos de eficiência, também apresenta riscos substanciais que as organizações devem enfrentar de forma proativa.

A GenAI, com sua capacidade de gerar conteúdo de forma autônoma, apresenta desafios únicos. As empresas devem reconhecer que os resultados gerados pela genAI podem expor inadvertidamente informações confidenciais, propagar informações incorretas ou até mesmo introduzir conteúdo malicioso. Dessa forma, torna-se crucial avaliar e mitigar esses riscos de forma abrangente.

O foco deve ser o risco de dados do uso do aplicativo genAI, pois os dados estão no centro dos sistemas genAI. Aqui estão algumas etapas táticas específicas para lidar com o risco da genAI:

  • Conheça seu estado atual: Comece avaliando sua infraestrutura de IA, pipelines de dados e aplicativos de genAI existentes. Identificar vulnerabilidades e lacunas nos controles de segurança.
  • Implemente controles essenciais: Estabeleça medidas fundamentais de segurança, como controles de acesso, mecanismos de autenticação e criptografia. Esses controles fundamentais formam a base para um ambiente de IA seguro.
  • Planeje os controles avançados: Além do básico, desenvolva um roteiro para controles de segurança avançados. Considere a modelagem de ameaças, a detecção de anomalias e o monitoramento contínuo.
  • Medir, iniciar, revisar, iterar: Avalie regularmente a eficácia de suas medidas de segurança. Adapte-os e aperfeiçoe-os com base nas experiências do mundo real e nas ameaças emergentes.

Ao se envolver com fornecedores de IA/genAI, as organizações devem perguntar sobre suas medidas de proteção de dados, protocolos de criptografia e conformidade com as normas de privacidade.
As organizações devem considerar questões mais amplas de gerenciamento de riscos, incluindo implicações legais, éticas e de responsabilidade. Colabore com as equipes internas de gerenciamento de risco existentes, incluindo as partes interessadas jurídicas, de conformidade e de risco, para revisar sua estrutura de gerenciamento de risco e adaptar-se às áreas de risco de IA e genAI. Utilize a estrutura de gerenciamento de riscos de IA do NIST[4] para orientar os esforços de sua organização.

Por fim, mantenha-se informado sobre as macrotendências em IA e segurança cibernética. Monitore os desenvolvimentos em ética de IA, mudanças regulatórias e ataques adversários. Ao antecipar os pontos problemáticos e as áreas de ameaças emergentes, as empresas podem ajustar proativamente suas estratégias de mitigação de riscos.
Em resumo, as empresas devem navegar pelo cenário em evolução dos riscos relacionados à IA combinando conhecimento técnico, planejamento estratégico e vigilância. A genAI, embora transformadora, exige uma abordagem robusta de gerenciamento de riscos para proteger os dados, a reputação e a continuidade dos negócios.

 

References link link

[1] As startups de inteligência artificial mais promissoras de 2024, CB Insights, https://www.cbinsights.com/research/report/artificial-intelligence-top-startups-2024/
[2] ChatGPT - Notas de versão, OpenAI. https://help.openai.com/en/articles/6825453-chatgpt-release-notes
[3] TECH O chefe de pesquisa do Google diz que "nem sempre encontraremos" erros nos produtos de IA e que é preciso correr riscos ao implementá-los, CNBC. https://www.cnbc.com/2024/06/13/google-wont-always-find-mistakes-in-ai-search-vp-reid-tells-staff.html
[4] Estrutura de gerenciamento de riscos de IA do NIST, NIST. https://www.nist.gov/itl/ai-risk-management-framework
[5] Managing Artificial Intelligence-Specific Cybersecurity Risks in the Financial Services Sector, do Departamento do Tesouro dos EUA, março de 2024. https://home.treasury.gov/system/files/136/Managing-Artificial-Intelligence-Specific-Cybersecurity-Risks-In-The-Financial-Services-Sector.pdf

 

azul claro mais

Relatórios de nuvem e ameaças

O Netskope Cloud and Threat Report traz informações exclusivas sobre a adoção de aplicativos na nuvem, mudanças no panorama das ameaças preparadas para a nuvem e os riscos para os dados corporativos.

Tempestade com relâmpagos sobre a cidade à noite

Acelere seu programa de segurança com o líder em SASE.