Netskope debütiert als Leader im Gartner® Magic Quadrant™ 2024 für Single-Vendor Secure Access Service Edge Den Bericht erhalten

Schließen
Schließen
  • Warum Netskope? Chevron

    Verändern Sie die Art und Weise, wie Netzwerke und Sicherheit zusammenarbeiten.

  • Unsere Kunden Chevron

    Netskope betreut weltweit mehr als 3.400 Kunden, darunter mehr als 30 der Fortune 100

  • Unsere Partner Chevron

    Unsere Partnerschaften helfen Ihnen, Ihren Weg in die Cloud zu sichern.

Leader im Bereich SSE.
Jetzt ein Leader im Bereich Single-Vendor-SASE.

Erfahren Sie, warum Netskope im Gartner® Magic Quadrant™️ 2024 für Single-Vendor Secure Access Service Edge als Leader debütiert

Report abrufen
Kundenvisionäre im Rampenlicht

Read how innovative customers are successfully navigating today’s changing networking & security landscape through the Netskope One platform.

Jetzt das E-Book lesen
Kundenvisionäre im Rampenlicht
Die partnerorientierte Markteinführungsstrategie von Netskope ermöglicht es unseren Partnern, ihr Wachstum und ihre Rentabilität zu maximieren und gleichzeitig die Unternehmenssicherheit an neue Anforderungen anzupassen.

Erfahren Sie mehr über Netskope-Partner
Gruppe junger, lächelnder Berufstätiger mit unterschiedlicher Herkunft
Ihr Netzwerk von morgen

Planen Sie Ihren Weg zu einem schnelleren, sichereren und widerstandsfähigeren Netzwerk, das auf die von Ihnen unterstützten Anwendungen und Benutzer zugeschnitten ist.

Whitepaper lesen
Ihr Netzwerk von morgen
Vorstellung der Netskope One-Plattform

Netskope One ist eine cloudnative Plattform, die konvergierte Sicherheits- und Netzwerkdienste bietet, um Ihre SASE- und Zero-Trust-Transformation zu ermöglichen.

Erfahren Sie mehr über Netskope One
Abstrakt mit blauer Beleuchtung
Nutzen Sie eine Secure Access Service Edge (SASE)-Architektur

Netskope NewEdge ist die weltweit größte und leistungsstärkste private Sicherheits-Cloud und bietet Kunden eine beispiellose Serviceabdeckung, Leistung und Ausfallsicherheit.

Mehr über NewEdge erfahren
NewEdge
Netskope Cloud Exchange

Cloud Exchange (CE) von Netskope gibt Ihren Kunden leistungsstarke Integrationstools an die Hand, mit denen sie in jeden Aspekt ihres Sicherheitsstatus investieren können.

Erfahren Sie mehr über Cloud Exchange
Netskope-Video
  • Edge-Produkte von Security Service Chevron

    Schützen Sie sich vor fortgeschrittenen und cloudfähigen Bedrohungen und schützen Sie Daten über alle Vektoren hinweg.

  • Borderless SD-WAN Chevron

    Stellen Sie selbstbewusst sicheren, leistungsstarken Zugriff auf jeden Remote-Benutzer, jedes Gerät, jeden Standort und jede Cloud bereit.

  • Secure Access Service Edge Chevron

    Netskope One SASE bietet eine Cloud-native, vollständig konvergente SASE-Lösung eines einzelnen Anbieters.

Die Plattform der Zukunft heißt Netskope

Intelligent Security Service Edge (SSE), Cloud Access Security Broker (CASB), Cloud Firewall, Next Generation Secure Web Gateway (SWG) und Private Access for ZTNA sind nativ in einer einzigen Lösung integriert, um jedes Unternehmen auf seinem Weg zum Secure Access Service zu unterstützen Edge (SASE)-Architektur.

Netskope Produktübersicht
Netskope-Video
Next Gen SASE Branch ist hybrid – verbunden, sicher und automatisiert

Netskope Next Gen SASE Branch vereint kontextsensitives SASE Fabric, Zero-Trust Hybrid Security und SkopeAI-Powered Cloud Orchestrator in einem einheitlichen Cloud-Angebot und führt so zu einem vollständig modernisierten Branch-Erlebnis für das grenzenlose Unternehmen.

Erfahren Sie mehr über Next Gen SASE Branch
Menschen im Großraumbüro
Entwerfen einer SASE-Architektur für Dummies

Holen Sie sich Ihr kostenloses Exemplar des einzigen Leitfadens zum SASE-Design, den Sie jemals benötigen werden.

Jetzt das E-Book lesen
Steigen Sie auf marktführende Cloud-Security Service mit minimaler Latenz und hoher Zuverlässigkeit um.

Mehr über NewEdge erfahren
Beleuchtete Schnellstraße mit Serpentinen durch die Berge
Ermöglichen Sie die sichere Nutzung generativer KI-Anwendungen mit Anwendungszugriffskontrolle, Benutzercoaching in Echtzeit und erstklassigem Datenschutz.

Erfahren Sie, wie wir den Einsatz generativer KI sichern
ChatGPT und Generative AI sicher aktivieren
Zero-Trust-Lösungen für SSE- und SASE-Deployments

Erfahren Sie mehr über Zero Trust
Bootsfahrt auf dem offenen Meer
Netskope erhält die FedRAMP High Authorization

Wählen Sie Netskope GovCloud, um die Transformation Ihrer Agentur zu beschleunigen.

Erfahren Sie mehr über Netskope GovCloud
Netskope GovCloud
  • Ressourcen Chevron

    Erfahren Sie mehr darüber, wie Netskope Ihnen helfen kann, Ihre Reise in die Cloud zu sichern.

  • Blog Chevron

    Erfahren Sie, wie Netskope die Sicherheits- und Netzwerktransformation durch Security Service Edge (SSE) ermöglicht

  • Events und Workshops Chevron

    Bleiben Sie den neuesten Sicherheitstrends immer einen Schritt voraus und tauschen Sie sich mit Gleichgesinnten aus

  • Security Defined Chevron

    Finden Sie alles was Sie wissen müssen in unserer Cybersicherheits-Enzyklopädie.

Security Visionaries Podcast

Die Konvergenz der Rollen von CIO und CISO
Seien Sie bei der neuesten Folge von Security Visionaries mit Moderator Max Havey dabei, wenn er sich mit Gast Jadee Hanson, CISO bei Vanta, zusammensetzt.

Podcast abspielen
Die Konvergenz der Rollen von CIO und CISO
Neueste Blogs

Lesen Sie, wie Netskope die Zero Trust- und SASE-Reise durch Security Service Edge (SSE)-Funktionen ermöglichen kann.

Den Blog lesen
Sonnenaufgang und bewölkter Himmel
SASE Week 2023: Ihre SASE-Reise beginnt jetzt!

Wiederholungssitzungen der vierten jährlichen SASE Week.

Entdecken Sie Sitzungen
SASE Week 2023
Was ist SASE?

Erfahren Sie mehr über die zukünftige Konsolidierung von Netzwerk- und Sicherheitstools im heutigen Cloud-dominanten Geschäftsmodell.

Erfahre mehr zu SASE
  • Unternehmen Chevron

    Wir helfen Ihnen, den Herausforderungen der Cloud-, Daten- und Netzwerksicherheit einen Schritt voraus zu sein.

  • Leadership Chevron

    Unser Leadership-Team ist fest entschlossen, alles zu tun, was nötig ist, damit unsere Kunden erfolgreich sind.

  • Kundenlösungen Chevron

    Wir sind für Sie da, stehen Ihnen bei jedem Schritt zur Seite und sorgen für Ihren Erfolg mit Netskope.

  • Schulung und Zertifizierung Chevron

    Netskope-Schulungen helfen Ihnen ein Experte für Cloud-Sicherheit zu werden.

Unterstützung der Nachhaltigkeit durch Datensicherheit

Netskope ist stolz darauf, an Vision 2045 teilzunehmen: einer Initiative, die darauf abzielt, das Bewusstsein für die Rolle der Privatwirtschaft bei der Nachhaltigkeit zu schärfen.

Finde mehr heraus
Unterstützung der Nachhaltigkeit durch Datensicherheit
Denker, Architekten, Träumer, Innovatoren. Gemeinsam liefern wir hochmoderne Cloud-Sicherheitslösungen, die unseren Kunden helfen, ihre Daten und Mitarbeiter zu schützen.

Lernen Sie unser Team kennen
Gruppe von Wanderern erklimmt einen verschneiten Berg
Das talentierte und erfahrene Professional Services-Team von Netskope bietet einen präskriptiven Ansatz für Ihre erfolgreiche Implementierung.

Erfahren Sie mehr über professionelle Dienstleistungen
Netskope Professional Services
Mit Netskope-Schulungen können Sie Ihre digitale Transformation absichern und das Beste aus Ihrer Cloud, dem Web und Ihren privaten Anwendungen machen.

Erfahren Sie mehr über Schulungen und Zertifizierungen
Gruppe junger Berufstätiger bei der Arbeit

Cloud- und Bedrohungsbericht:
KI-Apps im Unternehmen

hellblau plus
In diesem Bericht wird untersucht, wie Unternehmen die Vorteile generativer KI-Apps gegeneinander abwägen und gleichzeitig die damit verbundenen Risiken managen. Dabei wird eine immer beliebtere Strategie hervorgehoben, die DLP und interaktives Benutzer-Coaching umfasst.
Dunkle Wolke über dem Sonnenuntergang
28 Minuten Lesezeit

Executive summary Link Link

Der diesjährige Cloud- und Bedrohungsbericht zu KI-Apps konzentriert sich speziell auf Trends und Risiken bei GenAI-Anwendungen, da die Verwendung von GenAI schnell zunimmt und eine große Reichweite und weitreichende Auswirkungen auf Unternehmensbenutzer hat. 96 % der befragten Organisationen haben Benutzer, die genAI verwenden, wobei sich die Anzahl der Benutzer in den letzten 12 Monaten verdreifacht hat. Der praktische Einsatz der genAI-Apps umfasst Hilfe beim Codieren, Schreibunterstützung, das Erstellen von Präsentationen sowie die Video- und Bildgenerierung. Diese Anwendungsfälle stellen Herausforderungen für die Datensicherheit dar. Insbesondere geht es darum, zu verhindern, dass vertrauliche Daten wie Quellcode, regulierte Daten und geistiges Eigentum an nicht genehmigte Apps gesendet werden.

Wir beginnen diesen Bericht mit einem Blick auf die Verwendungstrends bei genAI-Anwendungen. Anschließend analysieren wir die breit angelegten Risiken, die durch die Verwendung von genAI entstehen, diskutieren spezifische Kontrollen, die wirksam sind und Unternehmen dabei helfen können, sich angesichts unvollständiger Daten oder neuer Bedrohungsbereiche zu verbessern, und beenden den Bericht mit einem Blick auf künftige Trends und Auswirkungen.

Basierend auf Millionen anonymisierter Benutzeraktivitäten hat die Nutzung der genAI-App von Juni 2023 bis Juni 2024 erhebliche Veränderungen erfahren:

  • Nahezu alle Organisationen nutzen mittlerweile genAI-Anwendungen. Im letzten Jahr ist die Nutzung von 74 % auf 96 % der Organisationen gestiegen.
  • Die Akzeptanz von GenAI nimmt rasch zu, hat aber noch kein stabiles Niveau erreicht. Im durchschnittlichen Unternehmen kommen mehr als dreimal so viele GenAI-Apps zum Einsatz und die Zahl der Benutzer, die diese Apps aktiv nutzen, ist fast dreimal so hoch wie noch vor einem Jahr.
  • Das Datenrisiko ist für die ersten Anwender von GenAI-Apps das wichtigste Thema, denn die Weitergabe von proprietärem Quellcode an GenAI-Apps ist für 46 % aller Verstöße gegen die Datenschutzrichtlinien verantwortlich.
  • Die Einführung von Sicherheitskontrollen zur sicheren Aktivierung von GenAI-Apps nimmt zu. Mehr als drei Viertel der Organisationen verwenden Blockierungs-/Zulassungsrichtlinien, DLP, Live-Benutzercoaching und andere Kontrollen, um GenAI-Apps zu aktivieren und gleichzeitig die Daten zu schützen.

KI erfreut sich allgemein großer Beliebtheit und zieht beträchtliche Investitionen an. Von 2020 bis zum 22.03.2024 wurden im Rahmen von über 240 Beteiligungsgeschäften insgesamt über 28 Milliarden US-Dollar finanziert.[1]

AI 100 Top-Unternehmen nach Eigenkapitalfinanzierung

Da OpenAI und Anthropic zusammen fast zwei Drittel (64 %) der Gesamtfinanzierung ausmachen, wird die KI-Finanzierung von genAI dominiert und vorangetrieben. Dies spiegelt die zunehmende Begeisterung für GenAI seit der Veröffentlichung von ChatGPT von OpenAI im November 2022 wider. Zusätzlich zu den Start-ups wurden zahlreiche ETFs und Investmentfonds mit KI-Schwerpunkt aufgelegt, was auf eine weitere Finanzierungsebene durch öffentliche Marktinvestoren schließen lässt. Die hohen Investitionen werden der Forschung und Entwicklung, der Markteinführung neuer Produkte sowie den damit verbundenen Risiken und Missbräuchen Rückenwind verleihen.

Überhöhte Kurs-Umsatz-Verhältnisse deuten darauf hin, dass die Umsetzung hinter den hohen Erwartungen der Anleger zurückbleibt. Hugging Face hat eine 150-fache Bewertung von 4,5 Milliarden Dollar bei einem Umsatz von 30 Millionen Dollar und Perplexity eine 65-fache Bewertung von 520 Millionen Dollar bei einem Umsatz von 8 Millionen Dollar[1]:

AI 100 Umsatzmultiplikator nach Unternehmen

Auch wenn die realen Umsätze zurückbleiben, herrscht eine hohe Aktivität bei der Produktveröffentlichung. Das deutet darauf hin, dass wir uns noch in der Frühphase des KI-Innovationszyklus befinden und hohe Investitionen in Forschung und Entwicklung tätigen. Beispielsweise gab es seit November 2022 34 Feature-Releases (kleinere und größere) von ChatGPT[2], also etwa zwei pro Monat.

Es ist klar, dass genAI kurzfristig der Treiber von KI-Investitionen sein wird und für Unternehmensbenutzer die größten Risiken und Auswirkungen mit sich bringt. Es ist oder wird standardmäßig auf den wichtigsten Anwendungs-, Such- und Geräteplattformen gebündelt sein, mit Anwendungsfällen wie Suche, Textbearbeitung, Stil-/Ton-Anpassung und Inhaltserstellung. Das Hauptrisiko geht von den Daten aus, die Benutzer an die Apps senden. Dazu gehören Datenverlust, unbeabsichtigte Weitergabe vertraulicher Informationen und unangemessene Verwendung von Informationen (gesetzliche Rechte) aus genAI-Diensten. Derzeit werden aufgrund der breiteren Anwendungsfälle mehr Texte (LLMs) verwendet, obwohl auch GenAI-Apps für Videos, Bilder und andere Medien eine Rolle spielen.

Dieser Bericht fasst die Nutzung und Trends von genAI auf der Grundlage anonymisierter Kundendaten der letzten 12 Monate zusammen, beschreibt ausführlich die Anwendungsnutzung, Benutzeraktionen, Risikobereiche und frühen Kontrollen und bietet verbindliche Leitlinien für die nächsten 12 Monate.

 

test answer

Über diesen Bericht Link Link

Netskope bietet Millionen von Benutzern weltweit Bedrohungs- und Datenschutz. Die in diesem Bericht dargestellten Informationen basieren auf anonymisierten Nutzungsdaten, die von der Netskope Security Cloud-Plattform für eine Teilmenge von Netskope-Kunden mit vorheriger Autorisierung erfasst wurden. Die Statistiken in diesem Bericht basieren auf dem dreizehnmonatigen Zeitraum vom 1. Juni 2023 bis zum 30. Juni 2024.

Dieser Bericht umfasst Millionen von Benutzern in Hunderten von Organisationen weltweit in zahlreichen Branchen, darunter Finanzdienstleistungen, Gesundheitswesen, Fertigung, Telekommunikation und Einzelhandel. Die in diesem Bericht enthaltenen Organisationen haben jeweils mehr als 1.000 aktive Benutzer.

 

sdofjsfojefgejelosij

Netskope Threat Labs Link Link

Staffed by the industry’s foremost cloud threat and malware researchers, Netskope Threat Labs discovers, analyzes, and designs defenses against the latest web, cloud, and data threats affecting enterprises. Our researchers are regular presenters and volunteers at top security conferences, including DEF CON, Black Hat, and RSAC.

 

Trends Link Link

Fast alle Organisationen nutzen genAI-Apps

In den etwa 18 Monaten seit der öffentlichen Veröffentlichung von ChatGPT im November 2022 gab es bei einer großen Mehrheit der Organisationen Benutzer, die irgendeine Art von GenAI-Anwendung verwendeten. Dieser Anteil ist stetig gestiegen, von 74 % im Juni 2023 auf 96 % im Juni 2024. Fast jede Organisation verwendet heute genAI-Apps.

 

Organisationen nutzen mehr genAI-Apps

Die Anzahl der in jeder Organisation verwendeten genAI-Apps steigt deutlich an und hat sich von durchschnittlich 3 verschiedenen genAI-Apps im Juni 2023 auf über 9,6 Apps im Juni 2024 mehr als verdreifacht. An den oberen Extrempunkten ist ein noch deutlicheres Wachstum zu verzeichnen. Bei den oberen 25 % der Organisationen wuchs die Anzahl von Apps von 6 auf 24 und bei den oberen 1 % (nicht abgebildet) von 14 auf 80 Apps.

Dieser Trend ist verständlich, da es bereits zu Beginn eines Technologie-Innovationszyklus zu einer Zunahme von GenAI-Angeboten kommt, die durch erhebliche Investitionen und die Begeisterung für die Möglichkeiten, die diese zur Steigerung der Unternehmenseffizienz bieten, vorangetrieben werden. Für Organisationen, die das von ihren Benutzern ausgehende Risiko managen, bedeutet dies, dass die Anzahl der genutzten GenAI-Angebote weiter wächst und bei der Betrachtung der Risikokontrollen ein bewegliches Ziel darstellt. Darauf gehen wir später in diesem Bericht ein.

 

Top-Apps von genAI

Die am häufigsten verwendeten KI-Apps haben sich im letzten Jahr verändert. Im Juni 2023 waren ChatGPT, Grammarly und Google Bard (jetzt Gemini) die einzigen bedeutenden genAI-Apps mit einer nennenswerten Anzahl von Unternehmensbenutzern. Ab Juni 2024 sind weitere GenAI-Apps mit signifikanter Nutzung verfügbar. Dieser Bericht umfasst fast 200 verschiedene Apps, die von Netskope Threat Labs verfolgt werden. ChatGPT bleibt mit 80 % der Organisationen, die es verwenden, weiterhin führend in der Beliebtheit, während Microsoft Copilot, das im Januar 2024 allgemein verfügbar wurde, mit 57 % der Organisationen, die es verwenden, an dritter Stelle steht. Grammarly und Google Gemini (ehemals Bard) behalten hohe Platzierungen.

Das Wachstum im Zeitverlauf zeigt für alle Anwendungen weitgehend stetige Zuwächse, mit Ausnahme von Microsoft Copilot, dessen Nutzung in den sechs Monaten seit der Veröffentlichung auf 57 % aller befragten Organisationen gestiegen ist. Dies ist teilweise auf die hohe Akzeptanz neuer Microsoft-Angebote innerhalb der installierten Microsoft-Unternehmensbasis zurückzuführen.

Die Liste der beliebtesten genAI-Apps enthält eine Vielzahl von Neuzugängen, deren Anzahl im Laufe des kommenden Jahres schwanken wird. Auch die Kategorisierung der einzelnen Apps ist interessant, da sie Aufschluss darüber gibt, welche Anwendungsfälle für genAI-Apps bei Unternehmensbenutzern am beliebtesten sind.

Beliebteste GenAI-App-Kategorien

GenAI-AnwendungCategory
Schön.aiPräsentationen
SchreibsonischSchreiben
BuntstiftImages
TaktikTranskription von Geschäftstreffen (Zoom, Meet)
AIChattingAllgemein, Suche, Schreiben, PDF-Zusammenfassung
Github CopilotKodierung
DeepAIAllgemein, Suche, Chat, Bild, Video
szitierenForschung
Poe-KIAllgemein, Suche
Ratlosigkeit KIAllgemein, Suche

Wir gehen davon aus, dass sich die Top-Anwendungen im kommenden Jahr deutlich verschieben und im Bericht des nächsten Jahres ganz anders aussehen werden. Darüber hinaus wird es zu weiteren Konsolidierungen sowie zu Beziehungen mit Erstausrüstern (OEM) kommen. Beispielsweise bietet Chatbase die Modelle ChatGPT und Gemini zur Auswahl an. Aus der Perspektive der Marktanteile möchten wir die Anwendungsaktivität möglicherweise nach der zugrunde liegenden Technologie gruppieren. Aus Sicht des Organisationsrisikos ist jedoch die Gruppierung nach benutzerorientierter Anwendung wichtiger, da sich Sicherheitskontrollen häufig je nach Anwendung unterscheiden und auf einer gewissen Ebene Domänen/URLs enthalten, um Anwendungen zu unterscheiden. Das heißt, es könnte durchaus eine Richtlinie geben, die ChatGPT grundsätzlich verbietet, Chatbase jedoch die Verwendung von ChatGPT darunter erlaubt. Da ihre Anwendungsfälle unterschiedlich sind, unterscheiden sich auch das Risikomanagement und die Kontrollen.

 

Die Benutzeraktivität nimmt zu

Unternehmen verwenden nicht nur mehr GenAI-Apps, sondern auch die Benutzeraktivität mit diesen Apps nimmt zu. Während der Gesamtprozentsatz der Benutzer, die GenAI-Apps verwenden, noch relativ niedrig ist, ist die Steigerungsrate signifikant: Sie steigt von 1,7 % im Juni 2023 auf über 5 % im Juni 2024 und hat sich für das durchschnittliche Unternehmen in 12 Monaten fast verdreifacht. Sogar Organisationen mit einer überdurchschnittlichen Anzahl an Benutzern pro Monat verzeichneten im Jahresvergleich eine signifikante Einführung von genAI: Bei den oberen 25 % der Organisationen stieg der Anteil der Benutzer von genAI-Apps von 7 % auf 15 %. Unabhängig von der Größe der Organisation sehen wir weiterhin ein Wachstum bei der Einführung von GenAI, das sich im nächsten Jahr fortsetzen wird, da wir bisher keine Anzeichen für eine Abflachung der Wachstumsraten sehen.

 

Risks Link Link

Beim Einsatz von GenAI-Apps sind Daten noch immer das wichtigste zu schützende Gut. Benutzer sind nach wie vor die Hauptakteure bei der Verursachung und Vermeidung von Datenrisiken, und die dringendsten Sicherheitsrisiken für GenAI-Benutzer beziehen sich heute alle auf Daten.
Es ist hilfreich, das Datenrisiko aus Benutzersicht anhand von zwei Dimensionen zu betrachten:

  • Welche Daten senden Benutzer an genAI-Dienste?
  • Welche Daten erhalten und verwenden Benutzer von genAI-Diensten?

Eingabe: Datenübermittlung

Ausgabe: Datenergebnisse

Welche Daten senden Benutzer an genAI-Dienste?

Welche Daten erhalten und verwenden Benutzer von genAI-Diensten?

Risiken:

  • Unbekannte/verdächtige Apps

  • Datenlecks: PII, Anmeldeinformationen, Urheberrecht, Geschäftsgeheimnisse, HIPAA/DSGVO/PCI

Risiken:

  • Richtigkeit: Halluzinationen, Fehlinformationen

  • Rechtliches: Urheberrechtsverletzungen

  • Ökonomisch: Arbeitseffizienz, Ersatz

  • Social Engineering: Phishing, Deepfakes

  • Erpressung

  • Anstößige Inhalte

Bei den in dieser Studie untersuchten Unternehmen konzentrierten sich die erkannten Risiken und Bedrohungen der letzten zwölf Monate auf Anwendungsnutzungs- und Datenrisiken, was häufig in den frühen Phasen von Märkten der Fall ist, die sich auf Anwendungen oder Dienste konzentrieren. Darüber hinaus werden auf der linken Seite der Tabelle die Risiken behandelt, nämlich die Datenrisiken im Zusammenhang mit der Übermittlung von Eingabeaufforderungen an genAI-Apps durch Benutzer. Auf der rechten Seite der Tabelle hingegen stehen die Risiken der Verwendung von Daten, die von genAI-Diensten stammen oder zu stammen scheinen. Diese Priorisierung ist für die meisten Organisationen sinnvoll: Die erste Priorität liegt tendenziell auf dem Schutz der Informationsressourcen einer Organisation, und was später folgt, sind Haftungs- oder Richtigkeitsprobleme bei der Verwendung von Inhalten aus genAI-Apps.

Durch die weitere Aufzählung und Priorisierung der Risiken auf dieser Ebene können Unternehmen nicht nur die spezifischen Risiken ihrer genAI-App besser verstehen, sondern auch, was wichtig ist, feststellen, welche Kontrollen und Richtlinien zum Umgang mit diesen Risiken erforderlich sind.

 

Controls Link Link

Da sich die frühen Risiken im GenAI-Markt auf die Datenübermittlung durch die Benutzer konzentrierten, hatten für die Organisationen auch die Steuerelemente auf der linken Seite der Tabelle Priorität. Diese Steuerelemente werden weiter unten ausführlicher erläutert.

Eingabe: Datenübermittlung

Ausgabe: Datenergebnisse

Welche Daten senden Benutzer an genAI-Dienste?

Welche Daten erhalten und verwenden Benutzer von genAI-Diensten?

Risiken:

  • Unbekannte/verdächtige Apps

  • Datenlecks: PII, Anmeldeinformationen, Urheberrecht, Geschäftsgeheimnisse, HIPAA/DSGVO/PCI

Risiken:

  • Richtigkeit: Halluzinationen, Fehlinformationen

  • Rechtliches: Urheberrechtsverletzungen

  • Ökonomisch: Arbeitseffizienz, Ersatz

  • Social Engineering: Phishing, Deepfakes

  • Erpressung

  • Anstößige Inhalte

Controls:

  • AUP: Beschränken Sie die Nutzung von Apps

  • DLP: Prävention/Blockierung

  • Anwenderschulung/Coaching

  • Erweiterte Erkennung verdächtiger Datenbewegungen

Controls:

  • AUP: Welche Daten aus welchen Apps, für welchen Zweck

  • Richtlinien für Datenreferenzen/-quellen

  • Klarstellungen zu Stellenbeschreibungen/Tools/Prozessen

  • Anti Phishing

  • Deepfake-/Halluzinationserkennung (Datenprüfung)

  • Datenrückverfolgbarkeit/Fingerprinting

 

Anwendungen

Ausgangspunkt für das Risiko von GenAI-Apps sind die Anwendungen selbst. In der Praxis sind Anwendungskontrollen auch der Ausgangspunkt für die Kontrolle dieses Risikos, die normalerweise als Zulassungs- oder Sperrlisten innerhalb einer Inline-SWG oder eines Proxys implementiert werden.

Die meisten Organisationen haben die Verwendung von GenAI-Apps zum Schutz ihrer Daten eingeschränkt. 77 % der Organisationen blockieren seit Juni 2024 mindestens eine GenAI-App. Dies ist ein Anstieg von 45 % gegenüber 53 % im Juni 2023.

Dieser Trend deutet auf eine gute Reife und Akzeptanz grundlegender Kontrollen rund um die Nutzung von GenAI-Anwendungen hin. Die Kontrolle darüber, welche Apps in einer Organisation verwendet werden, ist ein notwendiger Ausgangspunkt zur Risikominderung. Um wirksam zu sein, sind jedoch detailliertere Kontrollen erforderlich. Der konkrete Verwendungszweck einer Anwendung bestimmt oft, ob die Aktivität erlaubt sein sollte oder nicht. Beispielsweise sollte eine allgemeine Suche in ChatGPT erlaubt sein, die Übermittlung von Quellcode jedoch nicht.

Bei genauerer Betrachtung der blockierten Anwendungen ist auch die durchschnittliche Anzahl der für alle Benutzer in einer Organisation blockierten Anwendungen gestiegen, von 0,6 Apps im Juni 2023 auf über 2,6 Apps im Juni 2024. Dass es im Vergleich zu den Hunderten von GenAI-Apps auf dem Markt so wenige unternehmensweite Verbote für GenAI-Apps gibt, deutet auf die Beliebtheit anderer, differenzierterer Kontrollmechanismen hin, auf die wir später in diesem Bericht noch genauer eingehen werden.

Die am häufigsten blockierten genAI-Anwendungen unterliegen in gewissem Maße einer gewissen Popularität, es werden jedoch auch viele weniger beliebte Apps am häufigsten blockiert. Von den Organisationen, die genAI-Apps blockieren, blockieren 28 % Beautifal.ai (was es zur am häufigsten blockierten genAI-App macht) und 19 % blockieren Perplexity AI, die zehnthäufigste blockierte App. Sperren können oft eine vorübergehende Maßnahme sein, während neue Apps bewertet werden, um festzustellen, ob sie legitimen Geschäftszwecken dienen und für bestimmte Anwendungsfälle sicher sind.

Welche Anwendungen konkret blockiert werden, hängt von den Unternehmensrichtlinien ab. Wenn die Prozentsätze jedoch hoch genug sind, wie in der obigen Top-10-Liste, lohnt es sich für alle Unternehmen zu prüfen, ob die spezifischen Anwendungen in ihrer eigenen Umgebung verwendet werden und ob Kontrollen rund um die Anwendungskategorie angepasst werden müssen. Die folgende Tabelle zeigt, dass die am häufigsten blockierten Apps eine Vielzahl unterschiedlicher Anwendungsfälle im GenAI-Bereich abdecken.

Most Blocked GenAI App Categories

GenAI-AnwendungCategory
Schön.aiPräsentationen
SchreibsonischSchreiben
BuntstiftImages
TaktikTranskription von Geschäftstreffen (Zoom, Meet)
AIChattingAllgemein, Suche, Schreiben, PDF-Zusammenfassung
Github CopilotKodierung
DeepAIAllgemein, Suche, Chat, Bild, Video
szitierenForschung
Poe-KIAllgemein, Suche
Ratlosigkeit KIAllgemein, Suche

 

Verhinderung von Datenverlust (Data Loss Prevention, DLP)

As organizations mature beyond allowed applications lists, they tend to begin enacting more fine-grained controls around the usage of the allowed applications. Unsurprisingly, DLP controls are growing in popularity as a genAI data risk control. Data loss prevention has increased in popularity from 24% in June 2023 to over 42% of organizations using DLP to control the types of data sent to genAI apps in June 2024, more than 75% year-over-year growth.

The increase in DLP controls reflects an understanding across organizations about how to effectively mitigate data risk amidst the larger, broad trend of increasing genAI app use. Within DLP policies, organizations are looking to control specific data flows, especially to block genAI prompts containing sensitive or confidential information. In organizations with data protection policies, source code accounts for nearly half (46%) of all DLP violations, with regulated data driven by industry regulations or compliance requirements at 35%, and intellectual property at 15%. Regulated data has been a top violation area pre-genAI and reinforces the challenges with manual training of users in the improper sharing of regulated data.


Posting sensitive data to genAI apps not only reflects the current priorities among organizations, but also shows the utility of various genAI apps. For example, GitHub Copilot’s popularity, coupled with Microsoft’s market share as a software development platform, may drive higher use of genAI for code generation in the future.

 

Coaching

While obviously malicious applications or activities are served well by controls that block and alert, data risk is often more of a gray area. Coaching controls can be a highly effective technique to deal with gray areas, especially in early fast-moving technology cycles like genAI. Furthermore, organizations can use coaching to inform and refine security controls without blocking productivity with false positives and slow approval processes.

Coaching controls provide a warning dialog to the user while interacting with genAI apps, allowing them to cancel or proceed with their actions. It functions like safe browsing features built into browsers. The advantages are it provides a friendlier experience for the user, not blocking their work, but informing and enabling users to improve their behavior.

For organizations with policies to control genAI application usage, 31% of them used coaching dialogs as of June 2024 compared to 20% of organizations in June 2023, an over 50% increase in adoption.

This tracks with growing sophistication of organizations in applying similar coaching controls from other security domains to newer ones such as genAI app risk. While the growth has flattened, coaching controls are relatively new as compared to outright blocks and alerts based on DLP or application. We expect the adoption to continue growing as more organizations understand how to use coaching to manage the grayer risks associated with data.

When we break down the actual user response to the coaching dialog alerts that have occurred, we see a measure of efficacy. For all users that received coaching dialog alerts for genAI apps, in 57% of those cases, users chose to stop the action they were performing, which reduced risk by users avoiding sending sensitive data in genAI app prompts or by avoiding the use of unknown or new genAI apps. 57% is high enough to bolster the case that coaching can be an effective control to complement explicit application blocks and DLP policies. Furthermore, coaching also enables feedback. When deciding to proceed, most organizations put policies in place that require users to justify their actions during the coaching interaction.

This is not to suggest that user decision-making be the basis for security policy. Rather, it indicates that for organizations that utilize coaching, approximately half of the genAI app usage that is not being outright blocked may be further reduced by user decisions. Just as important, user decisions in response to coaching dialogs can and should inform security policy review and adjustment. While user decisions can be faulty and risky, the two categorizations form the basis for further review. Applications that a user has decided not to use based on a coaching dialog should be analyzed for an outright block list. Applications that a user decided to use should be reviewed to be put on an allowed corporate standards list or perhaps blocked if there’s a better or more acceptable app. User responses to coaching prompts could also be used to refine more nuanced policies, like DLP policies, to be more targeted in their application.

 

Verhaltensanalyse

We are seeing early signs of advanced detections of suspicious user behavior with regards to data movement that were detected by behavioral detection engines. Suspicious data movement often comprises multiple indicators of suspicious or unexpected behavior by a user with respect to the user’s or organization’s normal activity baseline. The indicators might involve anomalous download or upload activity, new or suspicious sources or targets of data such as new genAI apps, as well as other suspicious behavior such as use of an unexpected or obfuscated IP address or user agent.

One example of a detected, advanced behavioral alert for suspicious data movement involves the movement of data from an organization-managed application and uploaded to an unapproved, personal genAI app.

Similar to coaching, the list of apps appearing in these alerts can also be used to prioritize control efforts with genAI application usage. For example, two commonly used apps may overlap in functionality, and that alone might prioritize efforts to reduce the number of apps.

The use of behavioral alerts show the early awareness and adoption of organizations to find harder to detect threats, which has traditionally included compromised credentials, insider threats, lateral movement, and data exfiltration activities by malicious actors.

When we look closer at the sensitive data movements, we find that the top applications where the sensitive data originated reflect popularity of corporate cloud apps with OneDrive (34%) and Google Drive (29%) at the top, followed by SharePoint (21%) and Outlook (8%) and Gmail (6%).

The top 3 apps are all cloud storage and collaboration apps and were the source of the sensitive data 84% of the time, while the major email cloud apps were the source 14% of the time. By knowing which specific applications are involved more frequently in sensitive data movements, security teams can then adjust controls appropriately, for example, placing additional DLP controls around file-sharing applications. Organizations should prioritize security risk assessment and control implementation around data movement between apps, especially moving from managed apps to unmanaged genAI apps, as it is both becoming more common and potentially having large data loss impact.

 

Orientierungshilfe Link Link

Based on the past twelve month trends, we recommend reviewing current security operations and risk assessment with a specific focus on AI and genAI specific changes required.

The framework for understanding and managing genAI risk involves reviewing security operations in five major areas with specific customization to genAI-specific risks:

  • Analysis, particularly risk assessment, of the current state of genAI app usage and user behavior.
  • Planning for risk analysis and implementation of controls.
  • Prevention controls including allowed genAI applications and DLP policies.
  • Detection controls, such as coaching and behavioral analysis.
  • Remediation/mitigation controls, including blocking new, inappropriate applications.

The first steps in analysis will be to inventory the genAI apps being used to form a baseline from which to plan. Then prevention and detection controls can be implemented with restriction of the allowed apps (acceptable application lists) and restriction of the data sent to those apps (DLP controls).

 

Erstellen einer Baseline für die App-Nutzung

By utilizing logs of secure web gateways or proxies and local DNS resolution, gather key metrics in:

  • App Popularity: which apps, how many times per week/month
  • Number of Users: with a minimum volume per week/month
  • User Volume: how much use (i.e. user transactions) per day/week/month, how much data (prompt/response size/volume)

Simple spreadsheet analysis can generate similar graphs as those shown in this report. With some simple automation, this can then be reviewed on a weekly or monthly basis to identify changes over time and outliers at any point in time.

 

Unbekannte reduzieren

From the application and usage baseline, the next step will be to remove the unknown or suspicious apps and enforce an acceptable app list. This reduces both attack surface and attack vectors. Specific measures include identifying an acceptable app list based on user work requirements, blocking unknown apps that are suspicious and training users to self-monitor with coaching techniques within your secure web gateways and proxies.

 

Reduzieren Sie den Verlust vertraulicher Daten

Detecting advanced threats is non-trivial, but since insider threats and compromised credentials remain common, but difficult challenges, planning should be done for genAI threats as well. Although behavioral detection alerts are not part of genAI vendor offerings, they are part of existing cybersecurity platforms and solutions. These behavioral detection capabilities should be evaluated with a focus on genAI-specific threats. The number and type of specific alerts are the starting point.

Product evaluations should also include risk scoring and tracking in addition to alert detections. Behavioral detection is generally more effective with some concept of granular risk tracking of users and apps over time so that root cause analysis can be done at the user-level and app-level. For example, certain apps or users may cause more risk, and targeted remediation can help reduce risk.

 

Risikorahmen verfeinern

Risk frameworks need to be reviewed and adapted or tailored specifically to AI or genAI. Efforts such as the NIST AI Risk Management Framework[4] can be used in internal efforts.

Managing Artificial Intelligence-Specific Cybersecurity Risks in the Financial Services Sector by U.S. Department of Treasury, March 2024[5] is an excellent example of managing AI-risk within the financial services sector, but can also be adapted to your sector or organization.

A good risk management framework will support future planning for up-and-coming threat areas, such as the liability and legal risk from the use of information from genAI apps. This can be captured in an acceptable use policy (AUP) along with the guidelines for data submitted to genAI apps. This policy could be implemented as a combination of manual controls (training) and technical controls in a SWG/proxy.

Much of the improvement in long-term risk management will come from a consistent and regular iteration of gap analysis, prioritization, planning, and execution.

 

Ausblick Link Link

Beyond specific technical measures to address genAI risk, organizations need to devote some time to tracking major trends in order to get ahead of probable changes in the next 12 months. We recommend tracking trends in five major areas: best practices, the big three enterprise vendors, genAI investment, infrastructure company growth and investment, and chat/LLM service provider adoption.

 

Best practices

Best practices and compliance frameworks tend to be lagging indicators in the sense that they are often created after a product or technology has widespread adoption and a large, established user base. Tracking these best practices is worthwhile, for prioritization based on common threat areas, gap analysis, and to assist in the implementation of concrete technical controls or risk management initiatives.

Two documents that are useful guidelines are the NIST AI Risk Management Framework[4] and the Managing Artificial Intelligence-Specific Cybersecurity Risks in the Financial Services Sector by U.S. Department of Treasury, March 2024[5].
In addition, track the ISAC for your industry, as best practices or sharing of indicators for AI-related risks will likely be discussed in those forums.

 

Auswirkungen auf die drei größten Unternehmen

Although there is a lot of discussion about startups including funding, valuations, revenues, and product releases, ultimately enterprises and their users will be most affected by what the major application, platform, and device vendors do.

The big three reach the highest number (100M to 1B+) of both consumer and enterprise users with their aggregate apps/platforms/devices:

  • Microsoft: Apps/AD/Azure/Surface/AI PCs
  • Google: Apps/Workspace/GCP/Android
  • Apple: iPhone/iPad/Mac

They have or are likely to make genAI free and built into existing services:

  • Microsoft: Copilot as part of Windows, Git, and Visual Studio
  • Google: Gemini as part of Google Search
  • Apple: Apple Intelligence and ChatGPT as part of iOS/MacOS

Organizations should track what Microsoft, Google,and Apple do in genAI. By focusing on the use cases and functionality used by their users, organizations will be better prepared for both the expected and probable over the next 12 months. For example, as engineering departments standardize on using GitHub Copilot for coding assistance, security policies should proactively implement app, DLP, and advanced detection controls around Copilot and similar apps.

 

Mehr Investitionen, Innovationen und Bedrohungen

Venture capital does not sit on the sidelines (or in the bank) very long, and the $10B+ from Microsoft will assuredly be spent by OpenAI sooner rather than later. Companies with the most cash will ultimately drive the most R&D and product releases. These startups and their genAI services should be prioritized, as they represent the most probable source of risk, simply by virtue of their focus on rapid growth of market share and user count.

Some of the investment has flowed into companies offering new genAI services based on domain-specific datasets, which might be by profession (e.g. legal or medical information), or by language (e.g. Japanese to English professional text translation), or other areas of expertise. In the short-term, this causes more challenges for security teams due to the sheer number of apps to control, but ultimately, it will help as there is more specificity in the purpose of genAI apps, which will make app-level controls, and the associated DLP controls for an app, more effective and targeted. It is much more challenging to manage risk with a do-it-all general genAI app, such as ChatGPT, since the use cases and datasets could be almost anything and policies are likely to be too general.

Other companies, often in an effort to compete, will release fast, often, and “test in production.” And because of competitive pressures or market dynamics, large companies, in addition to startups, can also prioritize feature development and release over testing:

“It is important that we don’t hold back features just because there might be occasional problems, but more as we find the problems, we address them,” Liz Reid, who was promoted to the role of vice president of search at Google in March, said in a company-wide meeting, according to audio obtained by CNBC.[3]

This is not a judgment on the philosophy of moving fast to market, rather it is an observation of the thinking of vendors early in an innovation cycle. By watching the product and functionality releases of genAI vendors, one can anticipate risk areas before they become obvious. At a minimum, this should set expectations for rapid release cycles, trigger internal triage/assessments to evaluate new functionality, and raise questions of organizational control over the “version” of a genAI app they are using.

 

Infrastrukturunternehmen

Many enterprises may focus on genAI apps and services as their users use them more. However, the underlying infrastructure companies, often public, and those providing hardware should be tracked to identify the future macro trends, especially investment. Much like the router business during the internet boom in the 1990s, infrastructure companies and their financial performance will be leading indicators of application and software investment and identify coming threat areas to analyze and plan for.

For example, looking at NVDA investment (e.g. data centers, SOC, PCs) and revenue/customer base expansion, one can see trends in the genAI applications or services markets.

Some financial tracking of public market investment from mutual funds and ETFs, as well as tracking of metrics such as market cap vs. revenues/earnings (price/sales), divergence in infrastructure revenues vs startup/software revenues, can also determine trends in R&D. R&D typically leads to product releases which lead to usage and risks.

 

Chat/LLM-Dienste

It is clear that if an organization deploys their own chat service or search facility using genAI technology, there is a risk of other threats not discussed in this report, namely prompt attacks to bypass guardrails resulting in hallucinations or biased results, or other data injection attacks such as data poisoning. Organizations should spend time on these risks as they plan those projects.

As more organizations widely implement search or chat services on their websites that use LLM or other genAI apps, there will be an increase in attacks against all genAI services, because attackers generally follow increasing usage and the associated money.

These threat trends may then cause adjustment or review of an organization’s own genAI services, such as a sales chat service or support knowledge base search facility. Organizations who are, or are planning to be, service providers should periodically review their risk profiles based on this broader macro trend to see if their risk posture has changed and whether that affects their control framework for protection, detection, or mitigation of their exposed genAI services.

 

Eine CISO-Perspektive

While genAI holds immense promise for innovations and efficiency, it also introduces substantial risks that organizations must address proactively. The use of governance, technology, processes, and people should all be applied, leveraging a framework that supports a strong backstop for your initiatives. As we saw with this research, there were some surprises such as regulatory information being shared with services. While many organizations are adopting genAI solutions, the use of genAI as a shadow IT service when combined with regulatory information and sensitive data, such as secrets and passwords, is an exposure no organization wants to find themselves in. The only approach is to adopt a programmatic plan of action to address both tactical and strategic use and adoption. The research showed services being adopted followed by fast responses in valuation and funding. Often it is good to remember Newton’s second law can also be applied to accelerating adoption cycles and your organization can find itself quickly managing a threat that has changed overnight. While the landscape may change, the fast-paced adoption and trends can still be useful as a “forecast” where the “genAI weather ahead” can be used to drive conversation with industry peers and be used as a lens for other threat reports and research.

 

Conclusion Link Link

The proliferation of artificial intelligence (AI) technologies, particularly those driven by generative AI (genAI), has significantly impacted risk management across enterprises. GenAI, while promising innovation and efficiency gains, also introduces substantial risks that organizations must address proactively.

GenAI, with its ability to autonomously generate content, poses unique challenges. Enterprises must recognize that genAI-generated outputs can inadvertently expose sensitive information, propagate misinformation, or even introduce malicious content. As such, it becomes crucial to assess and mitigate these risks comprehensively.

The focus should be on data risk from genAI app usage, as data is at the core of genAI systems. Here are some specific tactical steps to addressing risk from genAI:

  • Know your current state: Begin by assessing your existing AI infrastructure, data pipelines, and genAI applications. Identify vulnerabilities and gaps in security controls.
  • Implement core controls: Establish fundamental security measures, such as access controls, authentication mechanisms, and encryption. These foundational controls form the basis for a secure AI environment.
  • Plan for advanced controls: Beyond the basics, develop a roadmap for advanced security controls. Consider threat modeling, anomaly detection, and continuous monitoring.
  • Measure, start, revise, iterate: Regularly evaluate the effectiveness of your security measures. Adapt and refine them based on real-world experiences and emerging threats.

When engaging with AI/genAI vendors, organizations should inquire about their data protection measures, encryption protocols, and compliance with privacy regulations.
Organizations must consider broader risk management issues including legal, ethical, and liability implications. Collaborate with existing internal risk management teams including legal, compliance, and risk stakeholders to review your risk management framework and adapt to AI and genAI risk areas. Leverage the NIST AI Risk Management Framework[4] to guide your organization’s own efforts.

Finally, stay informed about macro trends in AI and cybersecurity. Monitor developments in AI ethics, regulatory changes, and adversarial attacks. By anticipating emerging pain points and threat areas, enterprises can proactively adjust their risk mitigation strategies.
In summary, enterprises must navigate the evolving landscape of AI-related risk by combining technical expertise, strategic planning, and vigilance. genAI, while transformative, demands a robust risk management approach to safeguard data, reputation, and business continuity.

 

References Link Link

[1] The most promising artificial intelligence startups of 2024, CB Insights, https://www.cbinsights.com/research/report/artificial-intelligence-top-startups-2024/
[2] ChatGPT — Release Notes, OpenAI. https://help.openai.com/en/articles/6825453-chatgpt-release-notes
[3] TECH Google search head says ‘we won’t always find’ mistakes with AI products and have to take risks rolling them, CNBC. https://www.cnbc.com/2024/06/13/google-wont-always-find-mistakes-in-ai-search-vp-reid-tells-staff.html
[4] NIST AI Risk Management Framework, NIST. https://www.nist.gov/itl/ai-risk-management-framework
[5] Managing Artificial Intelligence-Specific Cybersecurity Risks in the Financial Services Sector by U.S. Department of Treasury, March 2024. https://home.treasury.gov/system/files/136/Managing-Artificial-Intelligence-Specific-Cybersecurity-Risks-In-The-Financial-Services-Sector.pdf

 

hellblau plus

Cloud- und Bedrohungsberichte

The Netskope Cloud and Threat Report delivers unique insights into the adoption of cloud applications, changes in the cloud-enabled threat landscape, and the risks to enterprise data.

Storm with lightning over the city at night

Beschleunigen Sie Ihr Sicherheitsprogramm mit dem SASE Leader