Quantifizieren Sie den Wert von Netskope One SSE – Holen Sie sich die Forrester Total Economic Impact-Studie™ 2024

Schließen
Schließen
  • Warum Netskope? Chevron

    Verändern Sie die Art und Weise, wie Netzwerke und Sicherheit zusammenarbeiten.

  • Unsere Kunden Chevron

    Netskope betreut weltweit mehr als 3.400 Kunden, darunter mehr als 30 der Fortune 100

  • Unsere Partner Chevron

    Unsere Partnerschaften helfen Ihnen, Ihren Weg in die Cloud zu sichern.

Ein führendes Unternehmen im Bereich SSE. Jetzt ein führender Anbieter von SASE.

Erfahren Sie, warum Netskope im Gartner® Magic Quadrant™️ 2024 für Single-Vendor Secure Access Service Edge als Leader debütiert

Report abrufen
Customer Visionary Spotlights

Lesen Sie, wie innovative Kunden mithilfe der Netskope One-Plattform erfolgreich durch die sich verändernde Netzwerk- und Sicherheitslandschaft von heute navigieren.

Jetzt das E-Book lesen
Customer Visionary Spotlights
Die partnerorientierte Markteinführungsstrategie von Netskope ermöglicht es unseren Partnern, ihr Wachstum und ihre Rentabilität zu maximieren und gleichzeitig die Unternehmenssicherheit an neue Anforderungen anzupassen.

Erfahren Sie mehr über Netskope-Partner
Gruppe junger, lächelnder Berufstätiger mit unterschiedlicher Herkunft
Ihr Netzwerk von morgen

Planen Sie Ihren Weg zu einem schnelleren, sichereren und widerstandsfähigeren Netzwerk, das auf die von Ihnen unterstützten Anwendungen und Benutzer zugeschnitten ist.

Whitepaper lesen
Ihr Netzwerk von morgen
Netskope Cloud Exchange

Cloud Exchange (CE) von Netskope gibt Ihren Kunden leistungsstarke Integrationstools an die Hand, mit denen sie in jeden Aspekt ihres Sicherheitsstatus investieren können.

Erfahren Sie mehr über Cloud Exchange
Luftaufnahme einer Stadt
  • Security Service Edge Chevron

    Schützen Sie sich vor fortgeschrittenen und cloudfähigen Bedrohungen und schützen Sie Daten über alle Vektoren hinweg.

  • SD-WAN Chevron

    Stellen Sie selbstbewusst sicheren, leistungsstarken Zugriff auf jeden Remote-Benutzer, jedes Gerät, jeden Standort und jede Cloud bereit.

  • Secure Access Service Edge Chevron

    Netskope One SASE bietet eine Cloud-native, vollständig konvergente SASE-Lösung eines einzelnen Anbieters.

Die Plattform der Zukunft heißt Netskope

Security Service Edge (SSE), Cloud Access Security Broker (CASB), Cloud Firewall, Next Generation Secure Web Gateway (SWG) und Private Access for ZTNA sind nativ in einer einzigen Lösung integriert, um jedes Unternehmen auf seinem Weg zur Secure Access Service Edge (SASE)-Architektur zu unterstützen.

Netskope Produktübersicht
Netskope-Video
Next Gen SASE Branch ist hybrid – verbunden, sicher und automatisiert

Netskope Next Gen SASE Branch vereint kontextsensitives SASE Fabric, Zero-Trust Hybrid Security und SkopeAI-Powered Cloud Orchestrator in einem einheitlichen Cloud-Angebot und führt so zu einem vollständig modernisierten Branch-Erlebnis für das grenzenlose Unternehmen.

Erfahren Sie mehr über Next Gen SASE Branch
Menschen im Großraumbüro
SASE-Architektur für Dummies

Holen Sie sich Ihr kostenloses Exemplar des einzigen Leitfadens zum SASE-Design, den Sie jemals benötigen werden.

Jetzt das E-Book lesen
SASE-Architektur für Dummies – E-Book
Steigen Sie auf marktführende Cloud-Security Service mit minimaler Latenz und hoher Zuverlässigkeit um.

Mehr über NewEdge erfahren
Beleuchtete Schnellstraße mit Serpentinen durch die Berge
Ermöglichen Sie die sichere Nutzung generativer KI-Anwendungen mit Anwendungszugriffskontrolle, Benutzercoaching in Echtzeit und erstklassigem Datenschutz.

Erfahren Sie, wie wir den Einsatz generativer KI sichern
ChatGPT und Generative AI sicher aktivieren
Zero-Trust-Lösungen für SSE- und SASE-Deployments

Erfahren Sie mehr über Zero Trust
Bootsfahrt auf dem offenen Meer
Netskope erhält die FedRAMP High Authorization

Wählen Sie Netskope GovCloud, um die Transformation Ihrer Agentur zu beschleunigen.

Erfahren Sie mehr über Netskope GovCloud
Netskope GovCloud
  • Ressourcen Chevron

    Erfahren Sie mehr darüber, wie Netskope Ihnen helfen kann, Ihre Reise in die Cloud zu sichern.

  • Blog Chevron

    Erfahren Sie, wie Netskope die Sicherheits- und Netzwerktransformation durch Secure Access Service Edge (SASE) ermöglicht

  • Events und Workshops Chevron

    Bleiben Sie den neuesten Sicherheitstrends immer einen Schritt voraus und tauschen Sie sich mit Gleichgesinnten aus

  • Security Defined Chevron

    Finden Sie alles was Sie wissen müssen in unserer Cybersicherheits-Enzyklopädie.

Security Visionaries Podcast

A Cyber & Physical Security Playbook
Emily Wearmouth und Ben Morris untersuchen die Herausforderungen beim Schutz internationaler Sportveranstaltungen, bei denen Cybersicherheit auf physische Sicherheit trifft.

Podcast abspielen Alle Podcasts durchsuchen
Ein Playbook für Cyber- und physische Sicherheit, mit Ben Morris von World Rugby
Neueste Blogs

Lesen Sie, wie Netskope die Zero-Trust- und SASE-Reise durch SASE-Funktionen (Secure Access Service Edge) ermöglichen kann.

Den Blog lesen
Sonnenaufgang und bewölkter Himmel
SASE Week 2024 auf Abruf

Erfahren Sie, wie Sie sich in den neuesten Fortschritten bei SASE und Zero Trust zurechtfinden können, und erfahren Sie, wie sich diese Frameworks an die Herausforderungen der Cybersicherheit und Infrastruktur anpassen

Entdecken Sie Sitzungen
SASE Week 2024
Was ist SASE?

Erfahren Sie mehr über die zukünftige Konsolidierung von Netzwerk- und Sicherheitstools im heutigen Cloud-dominanten Geschäftsmodell.

Erfahre mehr zu SASE
  • Unternehmen Chevron

    Wir helfen Ihnen, den Herausforderungen der Cloud-, Daten- und Netzwerksicherheit einen Schritt voraus zu sein.

  • Karriere Chevron

    Schließen Sie sich den 3.000+ großartigen Teammitgliedern von Netskope an, die die branchenführende Cloud-native Sicherheitsplattform aufbauen.

  • Kundenlösungen Chevron

    Wir sind für Sie da, stehen Ihnen bei jedem Schritt zur Seite und sorgen für Ihren Erfolg mit Netskope.

  • Schulungen und Akkreditierungen Chevron

    Netskope-Schulungen helfen Ihnen ein Experte für Cloud-Sicherheit zu werden.

Unterstützung der Nachhaltigkeit durch Datensicherheit

Netskope ist stolz darauf, an Vision 2045 teilzunehmen: einer Initiative, die darauf abzielt, das Bewusstsein für die Rolle der Privatwirtschaft bei der Nachhaltigkeit zu schärfen.

Finde mehr heraus
Unterstützung der Nachhaltigkeit durch Datensicherheit
Helfen Sie mit, die Zukunft der Cloudsicherheit zu gestalten

Bei Netskope arbeiten Gründer und Führungskräfte Schulter an Schulter mit ihren Kollegen, selbst die renommiertesten Experten kontrollieren ihr Ego an der Tür, und die besten Ideen gewinnen.

Tritt dem Team bei
Karriere bei Netskope
Die engagierten Service- und Support-Experten von Netskope sorgen dafür, dass Sie unsere Plattform erfolgreich einsetzen und den vollen Wert ihrer Plattform ausschöpfen können.

Gehen Sie zu Kundenlösungen
Netskope Professional Services
Mit Netskope-Schulungen können Sie Ihre digitale Transformation absichern und das Beste aus Ihrer Cloud, dem Web und Ihren privaten Anwendungen machen.

Erfahren Sie mehr über Schulungen und Zertifizierungen
Gruppe junger Berufstätiger bei der Arbeit

Cloud- und Bedrohungsbericht:
KI-Apps im Unternehmen

hellblau plus
In diesem Bericht wird untersucht, wie Unternehmen die Vorteile generativer KI-Apps gegeneinander abwägen und gleichzeitig die damit verbundenen Risiken managen. Dabei wird eine immer beliebtere Strategie hervorgehoben, die DLP und interaktives Benutzer-Coaching umfasst.
Dunkle Wolke über dem Sonnenuntergang
28 Minuten Lesezeit

Zusammenfassung Link Link

Der diesjährige Cloud- und Bedrohungsbericht zu KI-Apps konzentriert sich speziell auf Trends und Risiken bei GenAI-Anwendungen, da die Verwendung von GenAI schnell zunimmt und eine große Reichweite und weitreichende Auswirkungen auf Unternehmensbenutzer hat. 96 % der befragten Organisationen haben Benutzer, die genAI verwenden, wobei sich die Anzahl der Benutzer in den letzten 12 Monaten verdreifacht hat. Der praktische Einsatz der genAI-Apps umfasst Hilfe beim Codieren, Schreibunterstützung, das Erstellen von Präsentationen sowie die Video- und Bildgenerierung. Diese Anwendungsfälle stellen Herausforderungen für die Datensicherheit dar. Insbesondere geht es darum, zu verhindern, dass vertrauliche Daten wie Quellcode, regulierte Daten und geistiges Eigentum an nicht genehmigte Apps gesendet werden.

Wir beginnen diesen Bericht mit einem Blick auf die Verwendungstrends bei genAI-Anwendungen. Anschließend analysieren wir die breit angelegten Risiken, die durch die Verwendung von genAI entstehen, diskutieren spezifische Kontrollen, die wirksam sind und Unternehmen dabei helfen können, sich angesichts unvollständiger Daten oder neuer Bedrohungsbereiche zu verbessern, und beenden den Bericht mit einem Blick auf künftige Trends und Auswirkungen.

Basierend auf Millionen anonymisierter Benutzeraktivitäten hat die Nutzung der genAI-App von Juni 2023 bis Juni 2024 erhebliche Veränderungen erfahren:

  • Nahezu alle Organisationen nutzen mittlerweile genAI-Anwendungen. Im letzten Jahr ist die Nutzung von 74 % auf 96 % der Organisationen gestiegen.
  • Die Akzeptanz von GenAI nimmt rasch zu, hat aber noch kein stabiles Niveau erreicht. Im durchschnittlichen Unternehmen kommen mehr als dreimal so viele GenAI-Apps zum Einsatz und die Zahl der Benutzer, die diese Apps aktiv nutzen, ist fast dreimal so hoch wie noch vor einem Jahr.
  • Das Datenrisiko ist für die ersten Anwender von GenAI-Apps das wichtigste Thema, denn die Weitergabe von proprietärem Quellcode an GenAI-Apps ist für 46 % aller Verstöße gegen die Datenschutzrichtlinien verantwortlich.
  • Die Einführung von Sicherheitskontrollen zur sicheren Aktivierung von GenAI-Apps nimmt zu. Mehr als drei Viertel der Organisationen verwenden Blockierungs-/Zulassungsrichtlinien, DLP, Live-Benutzercoaching und andere Kontrollen, um GenAI-Apps zu aktivieren und gleichzeitig die Daten zu schützen.

KI erfreut sich allgemein großer Beliebtheit und zieht beträchtliche Investitionen an. Von 2020 bis zum 22.03.2024 wurden im Rahmen von über 240 Beteiligungsgeschäften insgesamt über 28 Milliarden US-Dollar finanziert.[1]

AI 100 Top-Unternehmen nach Eigenkapitalfinanzierung

Da OpenAI und Anthropic zusammen fast zwei Drittel (64 %) der Gesamtfinanzierung ausmachen, wird die KI-Finanzierung von genAI dominiert und vorangetrieben. Dies spiegelt die zunehmende Begeisterung für GenAI seit der Veröffentlichung von ChatGPT von OpenAI im November 2022 wider. Zusätzlich zu den Start-ups wurden zahlreiche ETFs und Investmentfonds mit KI-Schwerpunkt aufgelegt, was auf eine weitere Finanzierungsebene durch öffentliche Marktinvestoren schließen lässt. Die hohen Investitionen werden der Forschung und Entwicklung, der Markteinführung neuer Produkte sowie den damit verbundenen Risiken und Missbräuchen Rückenwind verleihen.

Überhöhte Kurs-Umsatz-Verhältnisse deuten darauf hin, dass die Umsetzung hinter den hohen Erwartungen der Anleger zurückbleibt. Hugging Face hat eine 150-fache Bewertung von 4,5 Milliarden Dollar bei einem Umsatz von 30 Millionen Dollar und Perplexity eine 65-fache Bewertung von 520 Millionen Dollar bei einem Umsatz von 8 Millionen Dollar[1]:

AI 100 Umsatzmultiplikator nach Unternehmen

Auch wenn die realen Umsätze zurückbleiben, herrscht eine hohe Aktivität bei der Produktveröffentlichung. Das deutet darauf hin, dass wir uns noch in der Frühphase des KI-Innovationszyklus befinden und hohe Investitionen in Forschung und Entwicklung tätigen. Beispielsweise gab es seit November 2022 34 Feature-Releases (kleinere und größere) von ChatGPT[2], also etwa zwei pro Monat.

Es ist klar, dass genAI kurzfristig der Treiber von KI-Investitionen sein wird und für Unternehmensbenutzer die größten Risiken und Auswirkungen mit sich bringt. Es ist oder wird standardmäßig auf den wichtigsten Anwendungs-, Such- und Geräteplattformen gebündelt sein, mit Anwendungsfällen wie Suche, Textbearbeitung, Stil-/Ton-Anpassung und Inhaltserstellung. Das Hauptrisiko geht von den Daten aus, die Benutzer an die Apps senden. Dazu gehören Datenverlust, unbeabsichtigte Weitergabe vertraulicher Informationen und unangemessene Verwendung von Informationen (gesetzliche Rechte) aus genAI-Diensten. Derzeit werden aufgrund der breiteren Anwendungsfälle mehr Texte (LLMs) verwendet, obwohl auch GenAI-Apps für Videos, Bilder und andere Medien eine Rolle spielen.

Dieser Bericht fasst die Nutzung und Trends von genAI auf der Grundlage anonymisierter Kundendaten der letzten 12 Monate zusammen, beschreibt ausführlich die Anwendungsnutzung, Benutzeraktionen, Risikobereiche und frühen Kontrollen und bietet verbindliche Leitlinien für die nächsten 12 Monate.

 

test answer

Über diesen Bericht Link Link

Netskope bietet Millionen von Benutzern weltweit Bedrohungs- und Datenschutz. Die in diesem Bericht dargestellten Informationen basieren auf anonymisierten Nutzungsdaten, die von der Netskope Security Cloud-Plattform für eine Teilmenge von Netskope-Kunden mit vorheriger Autorisierung erfasst wurden. Die Statistiken in diesem Bericht basieren auf dem dreizehnmonatigen Zeitraum vom 1. Juni 2023 bis zum 30. Juni 2024.

Dieser Bericht umfasst Millionen von Benutzern in Hunderten von Organisationen weltweit in zahlreichen Branchen, darunter Finanzdienstleistungen, Gesundheitswesen, Fertigung, Telekommunikation und Einzelhandel. Die in diesem Bericht enthaltenen Organisationen haben jeweils mehr als 1.000 aktive Benutzer.

 

sdofjsfojefgejelosij

Netskope Threat Labs Link Link

Die Netskope Threat Labs sind mit den branchenweit führenden Cloud-Bedrohungs- und Malware-Forschern besetzt und entdecken, analysieren und entwickeln Abwehrmaßnahmen gegen die neuesten Web-, Cloud- und Datenbedrohungen für Unternehmen. Unsere Forscher treten regelmäßig als Referenten und Freiwillige bei wichtigen Sicherheitskonferenzen auf, darunter DEF CON, Black Hat und RSAC.

 

Trends Link Link

Fast alle Organisationen nutzen genAI-Apps

In den etwa 18 Monaten seit der öffentlichen Veröffentlichung von ChatGPT im November 2022 gab es bei einer großen Mehrheit der Organisationen Benutzer, die irgendeine Art von GenAI-Anwendung verwendeten. Dieser Anteil ist stetig gestiegen, von 74 % im Juni 2023 auf 96 % im Juni 2024. Fast jede Organisation verwendet heute genAI-Apps.

 

Organisationen nutzen mehr genAI-Apps

Die Anzahl der in jeder Organisation verwendeten genAI-Apps steigt deutlich an und hat sich von durchschnittlich 3 verschiedenen genAI-Apps im Juni 2023 auf über 9,6 Apps im Juni 2024 mehr als verdreifacht. An den oberen Extrempunkten ist ein noch deutlicheres Wachstum zu verzeichnen. Bei den oberen 25 % der Organisationen wuchs die Anzahl von Apps von 6 auf 24 und bei den oberen 1 % (nicht abgebildet) von 14 auf 80 Apps.

Dieser Trend ist verständlich, da es bereits zu Beginn eines Technologie-Innovationszyklus zu einer Zunahme von GenAI-Angeboten kommt, die durch erhebliche Investitionen und die Begeisterung für die Möglichkeiten, die diese zur Steigerung der Unternehmenseffizienz bieten, vorangetrieben werden. Für Organisationen, die das von ihren Benutzern ausgehende Risiko managen, bedeutet dies, dass die Anzahl der genutzten GenAI-Angebote weiter wächst und bei der Betrachtung der Risikokontrollen ein bewegliches Ziel darstellt. Darauf gehen wir später in diesem Bericht ein.

 

Top-Apps von genAI

Die am häufigsten verwendeten KI-Apps haben sich im letzten Jahr verändert. Im Juni 2023 waren ChatGPT, Grammarly und Google Bard (jetzt Gemini) die einzigen bedeutenden genAI-Apps mit einer nennenswerten Anzahl von Unternehmensbenutzern. Ab Juni 2024 sind weitere GenAI-Apps mit signifikanter Nutzung verfügbar. Dieser Bericht umfasst fast 200 verschiedene Apps, die von Netskope Threat Labs verfolgt werden. ChatGPT bleibt mit 80 % der Organisationen, die es verwenden, weiterhin führend in der Beliebtheit, während Microsoft Copilot, das im Januar 2024 allgemein verfügbar wurde, mit 57 % der Organisationen, die es verwenden, an dritter Stelle steht. Grammarly und Google Gemini (ehemals Bard) behalten hohe Platzierungen.

Das Wachstum im Zeitverlauf zeigt für alle Anwendungen weitgehend stetige Zuwächse, mit Ausnahme von Microsoft Copilot, dessen Nutzung in den sechs Monaten seit der Veröffentlichung auf 57 % aller befragten Organisationen gestiegen ist. Dies ist teilweise auf die hohe Akzeptanz neuer Microsoft-Angebote innerhalb der installierten Microsoft-Unternehmensbasis zurückzuführen.

Die Liste der beliebtesten genAI-Apps enthält eine Vielzahl von Neuzugängen, deren Anzahl im Laufe des kommenden Jahres schwanken wird. Auch die Kategorisierung der einzelnen Apps ist interessant, da sie Aufschluss darüber gibt, welche Anwendungsfälle für genAI-Apps bei Unternehmensbenutzern am beliebtesten sind.

Beliebteste GenAI-App-Kategorien

GenAI-AnwendungCategory
ChatGPTSuche, Allgemein
GrammatikSchreiben
ZwillingeSuche, Allgemein
Microsoft CopilotSuche, Allgemein
Ratlosigkeit KISuche, Allgemein
QuillBotSchreiben
VEEDForschung
ChatbaseAllgemein, Suche
SchreibsonischSchreiben
GammaPräsentationen

Wir gehen davon aus, dass sich die Top-Anwendungen im kommenden Jahr deutlich verschieben und im Bericht des nächsten Jahres ganz anders aussehen werden. Darüber hinaus wird es zu weiteren Konsolidierungen sowie zu Beziehungen mit Erstausrüstern (OEM) kommen. Beispielsweise bietet Chatbase die Modelle ChatGPT und Gemini zur Auswahl an. Aus der Perspektive der Marktanteile möchten wir die Anwendungsaktivität möglicherweise nach der zugrunde liegenden Technologie gruppieren. Aus Sicht des Organisationsrisikos ist jedoch die Gruppierung nach benutzerorientierter Anwendung wichtiger, da sich Sicherheitskontrollen häufig je nach Anwendung unterscheiden und auf einer gewissen Ebene Domänen/URLs enthalten, um Anwendungen zu unterscheiden. Das heißt, es könnte durchaus eine Richtlinie geben, die ChatGPT grundsätzlich verbietet, Chatbase jedoch die Verwendung von ChatGPT darunter erlaubt. Da ihre Anwendungsfälle unterschiedlich sind, unterscheiden sich auch das Risikomanagement und die Kontrollen.

 

Die Benutzeraktivität nimmt zu

Unternehmen verwenden nicht nur mehr GenAI-Apps, sondern auch die Benutzeraktivität mit diesen Apps nimmt zu. Während der Gesamtprozentsatz der Benutzer, die GenAI-Apps verwenden, noch relativ niedrig ist, ist die Steigerungsrate signifikant: Sie steigt von 1,7 % im Juni 2023 auf über 5 % im Juni 2024 und hat sich für das durchschnittliche Unternehmen in 12 Monaten fast verdreifacht. Sogar Organisationen mit einer überdurchschnittlichen Anzahl an Benutzern pro Monat verzeichneten im Jahresvergleich eine signifikante Einführung von genAI: Bei den oberen 25 % der Organisationen stieg der Anteil der Benutzer von genAI-Apps von 7 % auf 15 %. Unabhängig von der Größe der Organisation sehen wir weiterhin ein Wachstum bei der Einführung von GenAI, das sich im nächsten Jahr fortsetzen wird, da wir bisher keine Anzeichen für eine Abflachung der Wachstumsraten sehen.

 

Risiken Link Link

Beim Einsatz von GenAI-Apps sind Daten noch immer das wichtigste zu schützende Gut. Benutzer sind nach wie vor die Hauptakteure bei der Verursachung und Vermeidung von Datenrisiken, und die dringendsten Sicherheitsrisiken für GenAI-Benutzer beziehen sich heute alle auf Daten.
Es ist hilfreich, das Datenrisiko aus Benutzersicht anhand von zwei Dimensionen zu betrachten:

  • Welche Daten senden Benutzer an genAI-Dienste?
  • Welche Daten erhalten und verwenden Benutzer von genAI-Diensten?

Eingabe: Datenübermittlung

Ausgabe: Datenergebnisse

Welche Daten senden Benutzer an genAI-Dienste?

Welche Daten erhalten und verwenden Benutzer von genAI-Diensten?

Risiken:

  • Unbekannte/verdächtige Apps

  • Datenlecks: PII, Anmeldeinformationen, Urheberrecht, Geschäftsgeheimnisse, HIPAA/DSGVO/PCI

Risiken:

  • Richtigkeit: Halluzinationen, Fehlinformationen

  • Rechtliches: Urheberrechtsverletzungen

  • Ökonomisch: Arbeitseffizienz, Ersatz

  • Social Engineering: Phishing, Deepfakes

  • Erpressung

  • Anstößige Inhalte

Bei den in dieser Studie untersuchten Unternehmen konzentrierten sich die erkannten Risiken und Bedrohungen der letzten zwölf Monate auf Anwendungsnutzungs- und Datenrisiken, was häufig in den frühen Phasen von Märkten der Fall ist, die sich auf Anwendungen oder Dienste konzentrieren. Darüber hinaus werden auf der linken Seite der Tabelle die Risiken behandelt, nämlich die Datenrisiken im Zusammenhang mit der Übermittlung von Eingabeaufforderungen an genAI-Apps durch Benutzer. Auf der rechten Seite der Tabelle hingegen stehen die Risiken der Verwendung von Daten, die von genAI-Diensten stammen oder zu stammen scheinen. Diese Priorisierung ist für die meisten Organisationen sinnvoll: Die erste Priorität liegt tendenziell auf dem Schutz der Informationsressourcen einer Organisation, und was später folgt, sind Haftungs- oder Richtigkeitsprobleme bei der Verwendung von Inhalten aus genAI-Apps.

Durch die weitere Aufzählung und Priorisierung der Risiken auf dieser Ebene können Unternehmen nicht nur die spezifischen Risiken ihrer genAI-App besser verstehen, sondern auch, was wichtig ist, feststellen, welche Kontrollen und Richtlinien zum Umgang mit diesen Risiken erforderlich sind.

 

Bedienelemente Link Link

Da sich die frühen Risiken im GenAI-Markt auf die Datenübermittlung durch die Benutzer konzentrierten, hatten für die Organisationen auch die Steuerelemente auf der linken Seite der Tabelle Priorität. Diese Steuerelemente werden weiter unten ausführlicher erläutert.

Eingabe: Datenübermittlung

Ausgabe: Datenergebnisse

Welche Daten senden Benutzer an genAI-Dienste?

Welche Daten erhalten und verwenden Benutzer von genAI-Diensten?

Risiken:

  • Unbekannte/verdächtige Apps

  • Datenlecks: PII, Anmeldeinformationen, Urheberrecht, Geschäftsgeheimnisse, HIPAA/DSGVO/PCI

Risiken:

  • Richtigkeit: Halluzinationen, Fehlinformationen

  • Rechtliches: Urheberrechtsverletzungen

  • Ökonomisch: Arbeitseffizienz, Ersatz

  • Social Engineering: Phishing, Deepfakes

  • Erpressung

  • Anstößige Inhalte

Steuerung:

  • AUP: Beschränken Sie die Nutzung von Apps

  • DLP: Prävention/Blockierung

  • Anwenderschulung/Coaching

  • Erweiterte Erkennung verdächtiger Datenbewegungen

Steuerung:

  • AUP: Welche Daten aus welchen Apps, für welchen Zweck

  • Richtlinien für Datenreferenzen/-quellen

  • Klarstellungen zu Stellenbeschreibungen/Tools/Prozessen

  • Anti Phishing

  • Deepfake-/Halluzinationserkennung (Datenprüfung)

  • Datenrückverfolgbarkeit/Fingerprinting

 

Anwendungen

Ausgangspunkt für das Risiko von GenAI-Apps sind die Anwendungen selbst. In der Praxis sind Anwendungskontrollen auch der Ausgangspunkt für die Kontrolle dieses Risikos, die normalerweise als Zulassungs- oder Sperrlisten innerhalb einer Inline-SWG oder eines Proxys implementiert werden.

Die meisten Organisationen haben die Verwendung von GenAI-Apps zum Schutz ihrer Daten eingeschränkt. 77 % der Organisationen blockieren seit Juni 2024 mindestens eine GenAI-App. Dies ist ein Anstieg von 45 % gegenüber 53 % im Juni 2023.

Dieser Trend deutet auf eine gute Reife und Akzeptanz grundlegender Kontrollen rund um die Nutzung von GenAI-Anwendungen hin. Die Kontrolle darüber, welche Apps in einer Organisation verwendet werden, ist ein notwendiger Ausgangspunkt zur Risikominderung. Um wirksam zu sein, sind jedoch detailliertere Kontrollen erforderlich. Der konkrete Verwendungszweck einer Anwendung bestimmt oft, ob die Aktivität erlaubt sein sollte oder nicht. Beispielsweise sollte eine allgemeine Suche in ChatGPT erlaubt sein, die Übermittlung von Quellcode jedoch nicht.

Bei genauerer Betrachtung der blockierten Anwendungen ist auch die durchschnittliche Anzahl der für alle Benutzer in einer Organisation blockierten Anwendungen gestiegen, von 0,6 Apps im Juni 2023 auf über 2,6 Apps im Juni 2024. Dass es im Vergleich zu den Hunderten von GenAI-Apps auf dem Markt so wenige unternehmensweite Verbote für GenAI-Apps gibt, deutet auf die Beliebtheit anderer, differenzierterer Kontrollmechanismen hin, auf die wir später in diesem Bericht noch genauer eingehen werden.

Die am häufigsten blockierten genAI-Anwendungen unterliegen in gewissem Maße einer gewissen Popularität, es werden jedoch auch viele weniger beliebte Apps am häufigsten blockiert. Von den Organisationen, die genAI-Apps blockieren, blockieren 28 % Beautifal.ai (was es zur am häufigsten blockierten genAI-App macht) und 19 % blockieren Perplexity AI, die zehnthäufigste blockierte App. Sperren können oft eine vorübergehende Maßnahme sein, während neue Apps bewertet werden, um festzustellen, ob sie legitimen Geschäftszwecken dienen und für bestimmte Anwendungsfälle sicher sind.

Welche Anwendungen konkret blockiert werden, hängt von den Unternehmensrichtlinien ab. Wenn die Prozentsätze jedoch hoch genug sind, wie in der obigen Top-10-Liste, lohnt es sich für alle Unternehmen zu prüfen, ob die spezifischen Anwendungen in ihrer eigenen Umgebung verwendet werden und ob Kontrollen rund um die Anwendungskategorie angepasst werden müssen. Die folgende Tabelle zeigt, dass die am häufigsten blockierten Apps eine Vielzahl unterschiedlicher Anwendungsfälle im GenAI-Bereich abdecken.

Am häufigsten blockierte GenAI-App-Kategorien

GenAI-AnwendungCategory
Schön.aiPräsentationen
SchreibsonischSchreiben
BuntstiftBilder
TaktikTranskription von Geschäftstreffen (Zoom, Meet)
AIChattingAllgemein, Suche, Schreiben, PDF-Zusammenfassung
Github CopilotKodierung
DeepAIAllgemein, Suche, Chat, Bild, Video
szitierenForschung
Poe-KIAllgemein, Suche
Ratlosigkeit KIAllgemein, Suche

 

Verhinderung von Datenverlust (Data Loss Prevention, DLP)

Wenn Organisationen über Listen zulässiger Anwendungen hinausgehen, neigen sie dazu, feinere Kontrollen hinsichtlich der Verwendung der zulässigen Anwendungen einzuführen. Es überrascht nicht, dass DLP-Kontrollen als GenAI-Datenrisikokontrolle immer beliebter werden. Die Popularität der Verhinderung von Datenverlust hat von 24 % im Juni 2023 auf über 42 % der Organisationen zugenommen, die DLP verwenden, um die Arten von Daten zu kontrollieren, die an genAI-Apps gesendet werden, im Juni 2024. Dies entspricht einem Wachstum von über 75 % im Vergleich zum Vorjahr.

Die Zunahme der DLP-Kontrollen spiegelt ein Verständnis in allen Organisationen darüber wider, wie sich das Datenrisiko angesichts des größeren Trends zur zunehmenden Nutzung von GenAI-Apps wirksam mindern lässt. Im Rahmen von DLP-Richtlinien versuchen Organisationen, bestimmte Datenflüsse zu kontrollieren, insbesondere um GenAI-Eingabeaufforderungen mit sensiblen oder vertraulichen Informationen zu blockieren. In Organisationen mit Datenschutzrichtlinien ist der Quellcode für fast die Hälfte (46 %) aller DLP-Verstöße verantwortlich, 35 % entfallen auf regulierte Daten aufgrund von Branchenvorschriften oder Compliance-Anforderungen und 15 % auf geistiges Eigentum. Regulierte Daten waren schon vor der Einführung der neuen KI ein Bereich mit den häufigsten Verstößen. Die manuelle Schulung der Benutzer im Hinblick auf die unzulässige Weitergabe regulierter Daten verschärft die Herausforderungen noch.


Das Posten vertraulicher Daten in GenAI-Apps spiegelt nicht nur die aktuellen Prioritäten in Organisationen wider, sondern zeigt auch den Nutzen verschiedener GenAI-Apps. Beispielsweise könnte die Popularität von GitHub Copilot in Verbindung mit dem Marktanteil von Microsoft als Softwareentwicklungsplattform dazu führen, dass genAI künftig stärker zur Codegenerierung eingesetzt wird.

 

Coaching

Während offensichtlich bösartige Anwendungen oder Aktivitäten durch Blockierungs- und Warnkontrollen gut geschützt sind, handelt es sich beim Datenrisiko häufig eher um eine Grauzone. Coaching-Kontrollen können eine äußerst effektive Methode sein, um mit Grauzonen umzugehen, insbesondere in frühen, sich schnell verändernden Technologiezyklen wie GenAI. Darüber hinaus können Unternehmen Coaching nutzen, um Sicherheitskontrollen zu informieren und zu verfeinern, ohne die Produktivität durch Fehlalarme und langsame Genehmigungsprozesse zu beeinträchtigen.

Coaching-Steuerelemente zeigen dem Benutzer während der Interaktion mit genAI-Apps einen Warndialog an, sodass er seine Aktionen abbrechen oder fortsetzen kann. Es funktioniert wie die in Browsern integrierten Funktionen zum sicheren Surfen. Die Vorteile liegen darin, dass es dem Benutzer ein benutzerfreundlicheres Erlebnis bietet, seine Arbeit nicht blockiert, sondern ihn informiert und ihm ermöglicht, sein Verhalten zu verbessern.

Von den Organisationen mit Richtlinien zur Kontrolle der Nutzung von GenAI-Anwendungen nutzten im Juni 2024 31 % Coaching-Dialoge, verglichen mit 20 % der Organisationen im Juni 2023. Dies entspricht einer Steigerung der Nutzung um über 50 %.

Dies steht im Einklang mit der zunehmenden Kompetenz von Organisationen bei der Anwendung ähnlicher Coaching-Kontrollen aus anderen Sicherheitsbereichen auf neuere Bereiche wie das GenAI-App-Risiko. Während das Wachstum abgeflacht ist, sind Coaching-Kontrollen im Vergleich zu völligen Blockaden und Warnungen auf DLP- oder Anwendungsbasis relativ neu. Wir erwarten, dass die Akzeptanz weiter zunimmt, da immer mehr Unternehmen verstehen, wie sie die mit Daten verbundenen Grauzonenrisiken durch Coaching bewältigen können.

Wenn wir die tatsächliche Benutzerreaktion auf die aufgetretenen Coaching-Dialogwarnungen aufschlüsseln, erkennen wir ein Maß für die Wirksamkeit. Bei allen Benutzern, die Coaching-Dialogwarnungen für genAI-Apps erhielten, entschieden sich 57 % der Benutzer, die ausgeführte Aktion abzubrechen. Dies reduzierte das Risiko, da die Benutzer das Senden vertraulicher Daten in Eingabeaufforderungen von genAI-Apps vermieden oder die Verwendung unbekannter oder neuer genAI-Apps vermieden. 57 % sind hoch genug, um die These zu untermauern, dass Coaching eine wirksame Maßnahme zur Ergänzung expliziter Anwendungssperren und DLP-Richtlinien sein kann. Darüber hinaus ermöglicht Coaching auch Feedback. Bei der Entscheidung, fortzufahren, legen die meisten Organisationen Richtlinien fest, die von den Benutzern verlangen, ihre Aktionen während der Coaching-Interaktion zu begründen.

Dies bedeutet nicht, dass die Entscheidungen der Benutzer die Grundlage für die Sicherheitsrichtlinie bilden sollten. Es deutet vielmehr darauf hin, dass bei Organisationen, die Coaching einsetzen, etwa die Hälfte der nicht gänzlich blockierten Nutzung der genAI-App durch Entscheidungen der Benutzer weiter reduziert werden könnte. Ebenso wichtig ist, dass Benutzerentscheidungen als Reaktion auf Coaching-Dialogfelder in die Überprüfung und Anpassung der Sicherheitsrichtlinien einfließen können und sollten. Obwohl Benutzerentscheidungen fehlerhaft und riskant sein können, bilden die beiden Kategorisierungen die Grundlage für eine weitere Überprüfung. Anwendungen, bei denen sich ein Benutzer aufgrund eines Coaching-Dialogs entschieden hat, sie nicht zu verwenden, sollten auf eine vollständige Sperrliste analysiert werden. Anwendungen, die ein Benutzer zu verwenden beschlossen hat, sollten überprüft werden, um sie in eine Liste zulässiger Unternehmensstandards aufzunehmen oder sie möglicherweise zu blockieren, wenn es eine bessere oder akzeptablere App gibt. Die Reaktionen der Benutzer auf die Coaching-Eingabeaufforderungen könnten auch dazu verwendet werden, differenziertere Richtlinien (wie etwa DLP-Richtlinien) zu verfeinern, damit sie gezielter angewendet werden können.

 

Verhaltensanalyse

Wir sehen erste Anzeichen einer erweiterten Erkennung verdächtigen Benutzerverhaltens im Hinblick auf Datenbewegungen, die von Verhaltenserkennungs-Engines erkannt wurden. Verdächtige Datenbewegungen umfassen häufig mehrere Indikatoren für verdächtiges oder unerwartetes Verhalten eines Benutzers im Hinblick auf den normalen Aktivitäts-Basiswert des Benutzers oder der Organisation. Zu den Indikatoren können anomale Download- oder Upload-Aktivitäten, neue oder verdächtige Datenquellen oder -ziele wie neue GenAI-Apps sowie anderes verdächtiges Verhalten wie die Verwendung einer unerwarteten oder verschleierten IP-Adresse oder eines Benutzeragenten gehören.

Ein Beispiel für eine erkannte erweiterte Verhaltenswarnung bei verdächtiger Datenbewegung ist die Bewegung von Daten aus einer von der Organisation verwalteten Anwendung und das Hochladen in eine nicht genehmigte, persönliche genAI-App.

Ähnlich wie beim Coaching kann die Liste der in diesen Warnungen angezeigten Apps auch verwendet werden, um Kontrollbemühungen bei der Nutzung von genAI-Anwendungen zu priorisieren. Beispielsweise kann sich die Funktionalität zweier häufig genutzter Apps überschneiden. Schon allein deshalb sollten Maßnahmen zur Reduzierung der App-Anzahl Vorrang erhalten.

Der Einsatz von verhaltensbasierten Warnungen zeigt, dass sich Organisationen frühzeitig mit der Erkennung von Bedrohungen befassen und diese frühzeitig in Angriff nehmen. Zu diesen Bedrohungen zählen traditionell kompromittierte Anmeldeinformationen, Insider-Bedrohungen, Lateral Movement und Datenexfiltrationsaktivitäten durch böswillige Akteure.

Bei genauerer Betrachtung der Bewegungen sensibler Daten stellen wir fest, dass die Top-Anwendungen, aus denen die sensiblen Daten stammen, die Popularität von Cloud-Apps von Unternehmen widerspiegeln, wobei OneDrive (34 %) und Google Drive (29 %) an der Spitze stehen, gefolgt von SharePoint (21 %), Outlook (8 %) und Gmail (6 %).

Bei den Top-3-Apps handelt es sich allesamt um Cloud-Speicher- und Collaboration-Apps, und sie waren in 84 % der Fälle die Quelle der vertraulichen Daten, während die wichtigsten E-Mail-Cloud-Apps in 14 % der Fälle die Quelle waren. Wenn die Sicherheitsteams wissen, welche spezifischen Anwendungen häufiger an der Übertragung vertraulicher Daten beteiligt sind, können sie die Kontrollen entsprechend anpassen, zum Beispiel durch die Platzierung zusätzlicher DLP-Kontrollen bei File-Sharing-Anwendungen. Unternehmen sollten der Bewertung von Sicherheitsrisiken und der Implementierung von Kontrollen im Zusammenhang mit der Datenbewegung zwischen Apps Priorität einräumen, insbesondere bei der Bewegung von verwalteten Apps zu nicht verwalteten genAI-Apps, da diese immer häufiger vorkommt und potenziell große Auswirkungen auf den Datenverlust haben kann.

 

Orientierungshilfe Link Link

Auf Grundlage der Trends der letzten zwölf Monate empfehlen wir eine Überprüfung der aktuellen Sicherheitsmaßnahmen und Risikobewertungen mit besonderem Augenmerk auf erforderliche KI- und GenKI-spezifische Änderungen.

Der Rahmen für das Verständnis und die Verwaltung von GenAI-Risiken umfasst die Überprüfung von Sicherheitsmaßnahmen in fünf Hauptbereichen mit spezifischer Anpassung an GenAI-spezifische Risiken:

  • Analyse, insbesondere Risikobewertung, des aktuellen Stands der Nutzung der genAI-App und des Benutzerverhaltens.
  • Planung der Risikoanalyse und Implementierung von Kontrollen.
  • Präventionskontrollen, einschließlich zulässiger GenAI-Anwendungen und DLP-Richtlinien.
  • Erkennungskontrollen, wie Coaching und Verhaltensanalyse.
  • Maßnahmen zur Behebung/Minderung, einschließlich der Blockierung neuer, unangemessener Anwendungen.

Die ersten Schritte der Analyse bestehen darin, eine Bestandsaufnahme der verwendeten GenAI-Apps vorzunehmen, um eine Basis für die Planung zu schaffen. Anschließend können Präventions- und Erkennungskontrollen mit Einschränkung der zulässigen Apps (Listen zulässiger Anwendungen) und Einschränkung der an diese Apps gesendeten Daten (DLP-Kontrollen) implementiert werden.

 

Erstellen einer Baseline für die App-Nutzung

Durch die Nutzung von Protokollen sicherer Web-Gateways oder Proxys und der lokalen DNS-Auflösung erfassen Sie wichtige Kennzahlen in:

  • App-Popularität: welche Apps, wie oft pro Woche/Monat
  • Anzahl der Benutzer: mit einem Mindestvolumen pro Woche/Monat
  • Benutzervolumen: Wie viel Nutzung (d. h. Benutzertransaktionen) pro Tag/Woche/Monat, wie viele Daten (Eingabeaufforderung/Antwortgröße/Volumen)

Durch eine einfache Tabellenkalkulationsanalyse können ähnliche Diagramme wie die in diesem Bericht gezeigten erstellt werden. Mithilfe einer einfachen Automatisierung können diese Daten dann wöchentlich oder monatlich überprüft werden, um Änderungen im Zeitverlauf und Ausreißer jederzeit zu erkennen.

 

Unbekannte reduzieren

Ausgehend von der Anwendungs- und Nutzungsgrundlage besteht der nächste Schritt darin, die unbekannten oder verdächtigen Apps zu entfernen und eine Liste akzeptabler Apps durchzusetzen. Dadurch werden sowohl die Angriffsfläche als auch die Angriffsvektoren verringert. Zu den spezifischen Maßnahmen gehören das Erstellen einer Liste akzeptabler Apps auf Grundlage der Arbeitsanforderungen der Benutzer, das Blockieren unbekannter Apps, die verdächtig sind, und das Schulen der Benutzer zur Selbstüberwachung mit Coaching-Techniken innerhalb Ihrer sicheren Web-Gateways und Proxys.

 

Reduzieren Sie den Verlust vertraulicher Daten

Das Erkennen fortgeschrittener Bedrohungen ist nicht trivial. Da Insider-Bedrohungen und kompromittierte Anmeldeinformationen jedoch weiterhin häufig vorkommen, aber schwierige Herausforderungen darstellen, sollten auch Pläne für GenAI-Bedrohungen erstellt werden. Obwohl Warnmeldungen zur Verhaltenserkennung nicht zum Angebot der GenAI-Anbieter gehören, sind sie Bestandteil bestehender Plattformen und Lösungen zur Cybersicherheit. Diese Funktionen zur Verhaltenserkennung sollten mit Schwerpunkt auf genAI-spezifischen Bedrohungen bewertet werden. Ausgangspunkt sind Anzahl und Art der jeweiligen Warnmeldungen.

Produktbewertungen sollten neben der Erkennung von Warnmeldungen auch eine Risikobewertung und -verfolgung umfassen. Die Verhaltenserkennung ist im Allgemeinen effektiver, wenn das Konzept einer detaillierten Risikoverfolgung von Benutzern und Apps über einen bestimmten Zeitraum hinweg verwendet wird, sodass die Ursachenanalyse auf Benutzer- und App-Ebene durchgeführt werden kann. Beispielsweise können bestimmte Apps oder Benutzer ein höheres Risiko darstellen und eine gezielte Abhilfe kann zur Risikominderung beitragen.

 

Risikorahmen verfeinern

Risikorahmen müssen überprüft und angepasst oder speziell auf KI oder Gen-KI zugeschnitten werden. Ansätze wie das NIST AI Risk Management Framework[4] können für interne Bemühungen genutzt werden.

Umgang mit KI-spezifischen Cybersicherheitsrisiken im Finanzdienstleistungssektor durch das US-Finanzministerium, März 2024[5] ist ein hervorragendes Beispiel für das Management von KI-Risiken im Finanzdienstleistungssektor, kann aber auch an Ihre Branche oder Organisation angepasst werden.

Ein gutes Rahmenwerk für das Risikomanagement unterstützt die Zukunftsplanung für aufkommende Bedrohungsbereiche, wie etwa das Haftungs- und Rechtsrisiko durch die Verwendung von Informationen aus GenAI-Apps. Dies kann in einer Richtlinie zur akzeptablen Nutzung (AUP) zusammen mit den Richtlinien für an genAI-Apps übermittelte Daten erfasst werden. Diese Richtlinie könnte als Kombination aus manuellen Kontrollen (Schulung) und technischen Kontrollen in einem SWG/Proxy implementiert werden.

Ein Großteil der Verbesserungen im langfristigen Risikomanagement wird durch eine konsistente und regelmäßige Wiederholung der Lückenanalyse, Priorisierung, Planung und Umsetzung erreicht.

 

Ausblick Link Link

Über spezifische technische Maßnahmen zum Umgang mit GenAI-Risiken hinaus müssen Unternehmen etwas Zeit darauf verwenden, wichtige Trends zu verfolgen, um wahrscheinlichen Änderungen in den nächsten 12 Monaten zuvorzukommen. Wir empfehlen, Trends in fünf Hauptbereichen zu verfolgen: Best Practices, die drei großen Unternehmensanbieter, GenAI-Investitionen, Wachstum und Investitionen von Infrastrukturunternehmen und Akzeptanz von Chat-/LLM-Dienstanbietern.

 

Bewährte Methoden

Best Practices und Compliance-Frameworks sind insofern tendenziell nachlaufende Indikatoren, als sie häufig erst entwickelt werden, wenn ein Produkt oder eine Technologie bereits weithin angenommen wurde und über eine große, etablierte Benutzerbasis verfügt. Es lohnt sich, diese Best Practices zu verfolgen, um eine Priorisierung auf der Grundlage gemeinsamer Bedrohungsbereiche vorzunehmen, Lückenanalysen durchzuführen und die Implementierung konkreter technischer Kontrollen oder Risikomanagementinitiativen zu unterstützen.

Zwei Dokumente, die nützliche Richtlinien darstellen, sind das NIST AI Risk Management Framework[4] und das Managing Artificial Intelligence-Specific Cybersecurity Risks in the Financial Services Sector des US-Finanzministeriums, März 2024[5].
Verfolgen Sie außerdem den ISAC für Ihre Branche, da in diesen Foren wahrscheinlich Best Practices oder der Austausch von Indikatoren für KI-bezogene Risiken diskutiert werden.

 

Auswirkungen auf die drei größten Unternehmen

Obwohl über Startups viel diskutiert wird und es um Finanzierung, Bewertung, Umsatz und Produktveröffentlichungen geht, sind Unternehmen und ihre Benutzer letztlich am stärksten davon betroffen, was die großen Anwendungs-, Plattform- und Geräteanbieter tun.

Die großen Drei erreichen mit ihren aggregierten Apps/Plattformen/Geräten die höchste Zahl (100 Millionen bis über 1 Milliarde) an Privat- und Unternehmensbenutzern:

  • Microsoft: Apps/AD/Azure/Surface/AI-PCs
  • Google: Apps/Workspace/GCP/Android
  • Apple: iPhone/iPad/Mac

Sie haben genAI bereits kostenlos bereitgestellt und in bestehende Dienste integriert oder werden dies wahrscheinlich tun:

  • Microsoft: Copilot als Teil von Windows, Git und Visual Studio
  • Google: Gemini als Teil der Google-Suche
  • Apple: Apple Intelligence und ChatGPT als Teil von iOS/MacOS

Organisationen sollten verfolgen, was Microsoft, Google und Apple in genAI tun. Indem sie den Schwerpunkt auf die Anwendungsfälle und Funktionen legen, die ihre Benutzer nutzen, sind Unternehmen besser auf die erwarteten und wahrscheinlichen Ereignisse der nächsten 12 Monate vorbereitet. Wenn beispielsweise Entwicklungsabteilungen standardmäßig GitHub Copilot zur Codierungsunterstützung verwenden, sollten Sicherheitsrichtlinien proaktiv App-, DLP- und erweiterte Erkennungskontrollen für Copilot und ähnliche Apps implementieren.

 

Mehr Investitionen, Innovationen und Bedrohungen

Risikokapital bleibt nicht lange ungenutzt (oder auf der Bank), und die über 10 Milliarden US-Dollar von Microsoft werden von OpenAI sicherlich eher früher als später ausgegeben werden. Die Unternehmen mit dem größten Bargeldbestand werden letztlich die meisten Forschungs- und Entwicklungsarbeiten sowie Produktveröffentlichungen durchführen. Diesen Startups und ihren GenAI-Diensten sollte Vorrang eingeräumt werden, da sie allein aufgrund ihres Fokus auf ein schnelles Wachstum von Marktanteilen und Benutzerzahlen die wahrscheinlichste Risikoquelle darstellen.

Ein Teil der Investitionen floss in Unternehmen, die neue genAI-Dienste auf der Grundlage domänenspezifischer Datensätze anbieten, die je nach Beruf (z. B. rechtliche oder medizinische Informationen) oder nach Sprache (z. B. Professionelle Textübersetzung Japanisch-Englisch) oder andere Fachgebiete. Kurzfristig stellt dies aufgrund der schieren Anzahl der zu kontrollierenden Apps eine größere Herausforderung für die Sicherheitsteams dar, aber letztendlich wird es hilfreich sein, da der Zweck der GenAI-Apps spezifischer ist, was Kontrollen auf App-Ebene und die zugehörigen DLP-Kontrollen für eine App effektiver und gezielter macht. Bei einer allgemeinen Allzweck-GenAI-App wie ChatGPT ist das Risikomanagement viel schwieriger, da die Anwendungsfälle und Datensätze nahezu beliebig sein können und die Richtlinien wahrscheinlich zu allgemein sind.

Andere Unternehmen wiederum bringen ihre Produkte – oft um wettbewerbsfähig zu bleiben – schnell und häufig auf den Markt und testen sie in der Produktion. Und aufgrund des Wettbewerbsdrucks oder der Marktdynamik können auch große Unternehmen, aber auch Startups, der Entwicklung und Veröffentlichung von Funktionen Vorrang vor dem Testen einräumen:

„Es ist wichtig, dass wir Funktionen nicht zurückhalten, nur weil es gelegentlich Probleme geben könnte, sondern dass wir uns um die Probleme kümmern, wenn wir sie finden“, sagte Liz Reid, die im März zur Vizepräsidentin für die Suche bei Google befördert wurde, laut einer Audioaufnahme, die CNBC vorliegt, bei einer unternehmensweiten Besprechung.[3]

Dabei handelt es sich nicht um ein Urteil über die Philosophie einer schnellen Markteinführung, sondern vielmehr um die Beobachtung der Denkweise von Anbietern in der Frühphase eines Innovationszyklus. Durch Beobachtung der Produkt- und Funktionsveröffentlichungen von GenAI-Anbietern lassen sich Risikobereiche vorhersehen, bevor sie offensichtlich werden. Dies sollte zumindest die Erwartung schneller Veröffentlichungszyklen wecken, interne Sichtungen/Beurteilungen zur Evaluierung neuer Funktionen auslösen und Fragen der organisatorischen Kontrolle über die „Version“ einer von ihnen verwendeten genAI-App aufwerfen.

 

Infrastrukturunternehmen

Viele Unternehmen konzentrieren sich möglicherweise auf GenAI-Apps und -Dienste, da ihre Benutzer diese stärker nutzen. Allerdings sollten die zugrunde liegenden Infrastrukturunternehmen (häufig öffentliche Unternehmen) und diejenigen, die Hardware bereitstellen, im Auge behalten werden, um zukünftige Makrotrends, insbesondere Investitionen, zu erkennen. Ähnlich wie das Router-Geschäft während des Internet-Booms in den 1990er Jahren werden Infrastrukturunternehmen und ihre finanzielle Leistungsfähigkeit führende Indikatoren für Investitionen in Anwendungen und Software sein und künftige Bedrohungsbereiche identifizieren, für die es eine Analyse und Planung zu treffen gilt.

Betrachtet man beispielsweise die NVDA-Investitionen (z. B. Rechenzentren, SOC, PCs) und der Ausweitung von Umsatz und Kundenstamm lassen sich Trends in den Märkten für GenAI-Anwendungen oder -Dienste erkennen.

Auch eine gewisse finanzielle Verfolgung öffentlicher Marktinvestitionen aus Investmentfonds und ETFs sowie die Verfolgung von Kennzahlen wie Marktkapitalisierung im Vergleich zu Umsatz/Gewinn (Kurs/Umsatz), Divergenz zwischen Infrastrukturumsätzen und Umsätzen aus Startups/Software können Trends im Bereich F&E aufzeigen. F&E führt typischerweise zu Produktveröffentlichungen, die wiederum zu Nutzung und Risiken führen.

 

Chat/LLM-Dienste

Es ist klar, dass, wenn eine Organisation ihren eigenen Chat-Dienst oder ihre eigene Suchfunktion mithilfe der genAI-Technologie einsetzt, das Risiko weiterer Bedrohungen besteht, die in diesem Bericht nicht erörtert werden. Dazu zählen beispielsweise sofortige Angriffe zum Umgehen von Leitplanken, die zu Halluzinationen oder verzerrten Ergebnissen führen, oder andere Dateneinschleusungsangriffe wie etwa Datenvergiftung. Organisationen sollten bei der Planung solcher Projekte diese Risiken berücksichtigen.

Da immer mehr Unternehmen auf ihren Websites flächendeckend Such- oder Chatdienste implementieren, die LLM oder andere genAI-Apps verwenden, wird es zu einer Zunahme der Angriffe auf alle genAI-Dienste kommen, da Angreifer in der Regel auf eine zunehmende Nutzung und den damit verbundenen Geldbetrag aus sind.

Diese Bedrohungstrends können dann eine Anpassung oder Überprüfung der unternehmenseigenen genAI-Dienste erforderlich machen, beispielsweise eines Verkaufs-Chat-Dienstes oder einer Suchfunktion für die Support-Wissensdatenbank. Organisationen, die Dienstanbieter sind oder werden möchten, sollten ihre Risikoprofile auf der Grundlage dieses breiteren Makrotrends regelmäßig überprüfen, um festzustellen, ob sich ihre Risikoposition geändert hat und ob dies Auswirkungen auf ihr Kontrollsystem zum Schutz, zur Erkennung oder zur Eindämmung ihrer exponierten genAI-Dienste hat.

 

Eine CISO-Perspektive

Zwar verspricht GenAI enorme Innovationen und mehr Effizienz, doch bringt es auch erhebliche Risiken mit sich, denen sich Unternehmen proaktiv stellen müssen. Sie sollten Governance, Technologie, Prozesse und Mitarbeiter einsetzen und dabei einen Rahmen schaffen, der Ihren Initiativen einen starken Rückhalt bietet. Wie wir bei dieser Untersuchung gesehen haben, gab es einige Überraschungen, beispielsweise die Weitergabe von Regulierungsinformationen an Dienste. Zwar setzen viele Organisationen bereits auf genAI-Lösungen, doch kein Unternehmen möchte sich dem Risiko aussetzen, genAI als Schatten-IT-Dienst in Kombination mit regulatorischen Informationen und sensiblen Daten wie Geschäftsgeheimnissen und Passwörtern einzusetzen. Der einzige Ansatz besteht in der Verabschiedung eines programmatischen Aktionsplans, der sowohl die taktische als auch die strategische Nutzung und Einführung berücksichtigt. Die Untersuchung ergab, dass die Dienste angenommen wurden und es anschließend zu schnellen Reaktionen hinsichtlich Bewertung und Finanzierung kam. Oft ist es gut, sich daran zu erinnern, dass sich Newtons zweites Gesetz auch auf die Beschleunigung von Einführungszyklen anwenden lässt und Ihr Unternehmen möglicherweise in der Situation ist, eine Bedrohung, die sich über Nacht verändert hat, schnell bewältigen zu müssen. Auch wenn sich die Landschaft ändern mag, können die schnelle Einführung und die Trends immer noch als „Prognose“ nützlich sein, wobei das „zukünftige GenAI-Wetter“ genutzt werden kann, um Gespräche mit Branchenkollegen anzuregen und als Linse für andere Bedrohungsberichte und Forschungsarbeiten zu dienen.

 

Abschluss Link Link

Die Verbreitung von Technologien der künstlichen Intelligenz (KI), insbesondere jener auf Basis generativer KI (GenAI), hat erhebliche Auswirkungen auf das Risikomanagement in Unternehmen. GenAI verspricht zwar Innovation und Effizienzsteigerungen, bringt aber auch erhebliche Risiken mit sich, denen Unternehmen proaktiv begegnen müssen.

GenAI stellt mit seiner Fähigkeit, autonom Inhalte zu generieren, einzigartige Herausforderungen dar. Unternehmen müssen sich darüber im Klaren sein, dass die von genAI generierten Ergebnisse unbeabsichtigt vertrauliche Informationen preisgeben, Fehlinformationen verbreiten oder sogar schädliche Inhalte einführen können. Daher ist es von entscheidender Bedeutung, diese Risiken umfassend zu bewerten und zu mindern.

Der Schwerpunkt sollte auf dem Datenrisiko durch die Nutzung von GenAI-Apps liegen, da Daten den Kern von GenAI-Systemen bilden. Hier sind einige konkrete taktische Schritte zum Umgang mit Risiken durch GenAI:

  • Kennen Sie Ihren aktuellen Stand: Beginnen Sie mit der Bewertung Ihrer vorhandenen KI-Infrastruktur, Datenpipelines und GenAI-Anwendungen. Identifizieren Sie Schwachstellen und Lücken in Sicherheitskontrollen.
  • Implementieren Sie Kernkontrollen: Richten Sie grundlegende Sicherheitsmaßnahmen ein, wie z. B. Zugriffskontrollen, Authentifizierungsmechanismen und Verschlüsselung. Diese grundlegenden Kontrollen bilden die Basis für eine sichere KI-Umgebung.
  • Planen Sie erweiterte Kontrollen: Entwickeln Sie über die Grundlagen hinaus einen Plan für erweiterte Sicherheitskontrollen. Berücksichtigen Sie Bedrohungsmodellierung, Anomalieerkennung und kontinuierliche Überwachung.
  • Messen, starten, überarbeiten, iterieren: Bewerten Sie regelmäßig die Wirksamkeit Ihrer Sicherheitsmaßnahmen. Passen Sie sie auf der Grundlage realer Erfahrungen und neuer Bedrohungen an und verfeinern Sie sie.

Bei der Zusammenarbeit mit KI-/Gen-KI-Anbietern sollten sich Unternehmen nach deren Datenschutzmaßnahmen, Verschlüsselungsprotokollen und der Einhaltung von Datenschutzbestimmungen erkundigen.
Organisationen müssen umfassendere Fragen des Risikomanagements berücksichtigen, darunter rechtliche, ethische und haftungsbezogene Auswirkungen. Arbeiten Sie mit vorhandenen internen Risikomanagementteams, einschließlich der Rechts-, Compliance- und Risikobeteiligten, zusammen, um Ihren Risikomanagementrahmen zu überprüfen und an die KI- und GenKI-Risikobereiche anzupassen. Nutzen Sie das NIST AI Risk Management Framework[4] als Leitfaden für die Bemühungen Ihres Unternehmens.

Bleiben Sie und bleiben Sie über Makrotrends im Bereich KI und Cybersicherheit auf dem Laufenden. Beobachten Sie Entwicklungen in der KI-Ethik, regulatorische Änderungen und feindliche Angriffe. Durch die Antizipation neu auftretender Schwachstellen und Bedrohungsbereiche können Unternehmen ihre Strategien zur Risikominderung proaktiv anpassen.
Zusammenfassend lässt sich sagen, dass Unternehmen sich in der sich entwickelnden Landschaft der KI-bezogenen Risiken durch die Kombination von technischem Fachwissen, strategischer Planung und Wachsamkeit zurechtfinden müssen. genAI ist zwar ein transformativer Prozess, erfordert jedoch einen robusten Risikomanagementansatz zum Schutz von Daten, Ruf und Geschäftskontinuität.

 

Verweise Link Link

[1] Die vielversprechendsten Künstliche-Intelligenz-Startups des Jahres 2024, CB Insights, https://www.cbinsights.com/research/report/artificial-intelligence-top-startups-2024/
[2] ChatGPT — Versionshinweise, OpenAI. https://help.openai.com/en/articles/6825453-chatgpt-release-notes
[3] TECH-Leiter der Google-Suche sagt, dass wir bei KI-Produkten nicht immer Fehler finden und das Risiko eingehen müssen, sie auszurollen, CNBC. https://www.cnbc.com/2024/06/13/google-wont-always-find-mistakes-in-ai-search-vp-reid-tells-staff.html
[4] NIST-Rahmenwerk für das Risikomanagement bei KI, NIST. https://www.nist.gov/itl/ai-risk-management-framework
[5] Managing Artificial Intelligence-Specific Cybersecurity Risks in the Financial Services Sector des US-Finanzministeriums, März 2024. https://home.treasury.gov/system/files/136/Managing-Artificial-Intelligence-Specific-Cybersecurity-Risks-In-The-Financial-Services-Sector.pdf

 

hellblau plus

Cloud- und Bedrohungsberichte

The Netskope Cloud and Threat Report delivers unique insights into the adoption of cloud applications, changes in the cloud-enabled threat landscape, and the risks to enterprise data.

Gewitter mit Blitzen über der Stadt in der Nacht

Beschleunigen Sie Ihr Sicherheitsprogramm mit dem SASE Leader