Schließen
Schließen
  • Warum Netskope? Chevron

    Verändern Sie die Art und Weise, wie Netzwerke und Sicherheit zusammenarbeiten.

  • Unsere Kunden Chevron

    Netskope betreut weltweit mehr als 3.400 Kunden, darunter mehr als 30 der Fortune 100

  • Unsere Partner Chevron

    Unsere Partnerschaften helfen Ihnen, Ihren Weg in die Cloud zu sichern.

Ein führendes Unternehmen im Bereich SSE. Jetzt ein führender Anbieter von SASE.

Erfahren Sie, warum Netskope im Gartner® Magic Quadrant™️ 2024 für Single-Vendor Secure Access Service Edge als Leader debütiert

Report abrufen
Customer Visionary Spotlights

Lesen Sie, wie innovative Kunden mithilfe der Netskope One-Plattform erfolgreich durch die sich verändernde Netzwerk- und Sicherheitslandschaft von heute navigieren.

Jetzt das E-Book lesen
Customer Visionary Spotlights
Die partnerorientierte Markteinführungsstrategie von Netskope ermöglicht es unseren Partnern, ihr Wachstum und ihre Rentabilität zu maximieren und gleichzeitig die Unternehmenssicherheit an neue Anforderungen anzupassen.

Erfahren Sie mehr über Netskope-Partner
Gruppe junger, lächelnder Berufstätiger mit unterschiedlicher Herkunft
Ihr Netzwerk von morgen

Planen Sie Ihren Weg zu einem schnelleren, sichereren und widerstandsfähigeren Netzwerk, das auf die von Ihnen unterstützten Anwendungen und Benutzer zugeschnitten ist.

Whitepaper lesen
Ihr Netzwerk von morgen
Netskope Cloud Exchange

Cloud Exchange (CE) von Netskope gibt Ihren Kunden leistungsstarke Integrationstools an die Hand, mit denen sie in jeden Aspekt ihres Sicherheitsstatus investieren können.

Erfahren Sie mehr über Cloud Exchange
Luftaufnahme einer Stadt
  • Security Service Edge Chevron

    Schützen Sie sich vor fortgeschrittenen und cloudfähigen Bedrohungen und schützen Sie Daten über alle Vektoren hinweg.

  • SD-WAN Chevron

    Stellen Sie selbstbewusst sicheren, leistungsstarken Zugriff auf jeden Remote-Benutzer, jedes Gerät, jeden Standort und jede Cloud bereit.

  • Secure Access Service Edge Chevron

    Netskope One SASE bietet eine Cloud-native, vollständig konvergente SASE-Lösung eines einzelnen Anbieters.

Die Plattform der Zukunft heißt Netskope

Security Service Edge (SSE), Cloud Access Security Broker (CASB), Cloud Firewall, Next Generation Secure Web Gateway (SWG) und Private Access for ZTNA sind nativ in einer einzigen Lösung integriert, um jedes Unternehmen auf seinem Weg zur Secure Access Service Edge (SASE)-Architektur zu unterstützen.

Netskope Produktübersicht
Netskope-Video
Next Gen SASE Branch ist hybrid – verbunden, sicher und automatisiert

Netskope Next Gen SASE Branch vereint kontextsensitives SASE Fabric, Zero-Trust Hybrid Security und SkopeAI-Powered Cloud Orchestrator in einem einheitlichen Cloud-Angebot und führt so zu einem vollständig modernisierten Branch-Erlebnis für das grenzenlose Unternehmen.

Erfahren Sie mehr über Next Gen SASE Branch
Menschen im Großraumbüro
SASE-Architektur für Dummies

Holen Sie sich Ihr kostenloses Exemplar des einzigen Leitfadens zum SASE-Design, den Sie jemals benötigen werden.

Jetzt das E-Book lesen
SASE-Architektur für Dummies – E-Book
Steigen Sie auf marktführende Cloud-Security Service mit minimaler Latenz und hoher Zuverlässigkeit um.

Mehr über NewEdge erfahren
Beleuchtete Schnellstraße mit Serpentinen durch die Berge
Ermöglichen Sie die sichere Nutzung generativer KI-Anwendungen mit Anwendungszugriffskontrolle, Benutzercoaching in Echtzeit und erstklassigem Datenschutz.

Erfahren Sie, wie wir den Einsatz generativer KI sichern
ChatGPT und Generative AI sicher aktivieren
Zero-Trust-Lösungen für SSE- und SASE-Deployments

Erfahren Sie mehr über Zero Trust
Bootsfahrt auf dem offenen Meer
Netskope erhält die FedRAMP High Authorization

Wählen Sie Netskope GovCloud, um die Transformation Ihrer Agentur zu beschleunigen.

Erfahren Sie mehr über Netskope GovCloud
Netskope GovCloud
  • Ressourcen Chevron

    Erfahren Sie mehr darüber, wie Netskope Ihnen helfen kann, Ihre Reise in die Cloud zu sichern.

  • Blog Chevron

    Erfahren Sie, wie Netskope die Sicherheits- und Netzwerktransformation durch Secure Access Service Edge (SASE) ermöglicht

  • Events und Workshops Chevron

    Bleiben Sie den neuesten Sicherheitstrends immer einen Schritt voraus und tauschen Sie sich mit Gleichgesinnten aus

  • Security Defined Chevron

    Finden Sie alles was Sie wissen müssen in unserer Cybersicherheits-Enzyklopädie.

Security Visionaries Podcast

Auseinandersetzung mit globalen Regulierungen in der Verteidigungsindustrie
In dieser Folge des Security Visionaries Podcasts interviewt Moderator Bailey Harmon Dan Whittingham, Enterprise Security Architect für Cyber Tooling bei Rolls-Royce

Podcast abspielen Alle Podcasts durchsuchen
Auseinandersetzung mit globalen Regulierungen in der Verteidigungsindustrie
Neueste Blogs

Lesen Sie, wie Netskope die Zero-Trust- und SASE-Reise durch SASE-Funktionen (Secure Access Service Edge) ermöglichen kann.

Den Blog lesen
Sonnenaufgang und bewölkter Himmel
SASE Week 2024 auf Abruf

Erfahren Sie, wie Sie sich in den neuesten Fortschritten bei SASE und Zero Trust zurechtfinden können, und erfahren Sie, wie sich diese Frameworks an die Herausforderungen der Cybersicherheit und Infrastruktur anpassen

Entdecken Sie Sitzungen
SASE Week 2024
Was ist SASE?

Erfahren Sie mehr über die zukünftige Konsolidierung von Netzwerk- und Sicherheitstools im heutigen Cloud-dominanten Geschäftsmodell.

Erfahre mehr zu SASE
  • Unternehmen Chevron

    Wir helfen Ihnen, den Herausforderungen der Cloud-, Daten- und Netzwerksicherheit einen Schritt voraus zu sein.

  • Karriere Chevron

    Schließen Sie sich den 3.000+ großartigen Teammitgliedern von Netskope an, die die branchenführende Cloud-native Sicherheitsplattform aufbauen.

  • Kundenlösungen Chevron

    Wir sind für Sie da, stehen Ihnen bei jedem Schritt zur Seite und sorgen für Ihren Erfolg mit Netskope.

  • Schulungen und Akkreditierungen Chevron

    Netskope-Schulungen helfen Ihnen ein Experte für Cloud-Sicherheit zu werden.

Unterstützung der Nachhaltigkeit durch Datensicherheit

Netskope ist stolz darauf, an Vision 2045 teilzunehmen: einer Initiative, die darauf abzielt, das Bewusstsein für die Rolle der Privatwirtschaft bei der Nachhaltigkeit zu schärfen.

Finde mehr heraus
Unterstützung der Nachhaltigkeit durch Datensicherheit
Helfen Sie mit, die Zukunft der Cloudsicherheit zu gestalten

Bei Netskope arbeiten Gründer und Führungskräfte Schulter an Schulter mit ihren Kollegen, selbst die renommiertesten Experten kontrollieren ihr Ego an der Tür, und die besten Ideen gewinnen.

Tritt dem Team bei
Karriere bei Netskope
Die engagierten Service- und Support-Experten von Netskope sorgen dafür, dass Sie unsere Plattform erfolgreich einsetzen und den vollen Wert ihrer Plattform ausschöpfen können.

Gehen Sie zu Kundenlösungen
Netskope Professional Services
Mit Netskope-Schulungen können Sie Ihre digitale Transformation absichern und das Beste aus Ihrer Cloud, dem Web und Ihren privaten Anwendungen machen.

Erfahren Sie mehr über Schulungen und Zertifizierungen
Gruppe junger Berufstätiger bei der Arbeit

Cloud- und Bedrohungsbericht:
Generative KI 2025

Dieser Bericht beschreibt den Anstieg der Einführung von generativer KI (GenAI) und stellt einen deutlichen Anstieg der Nutzung und des Datenvolumens im vergangenen Jahr fest. GenAI bietet zwar viele Vorteile, birgt aber auch Risiken für die Datensicherheit, vor allem durch Schatten-IT und das Durchsickern sensibler Informationen. Unternehmen können diese Risiken jedoch mindern, indem sie robuste Kontrollen wie Blockierung, DLP und Echtzeit-Benutzercoaching implementieren.
Dunkle Wolke über dem Sonnenuntergang
19 Min. gelesen

Einführung Link Link

Der Generative AI Cloud and Threat Report 2025 beleuchtet die zunehmende Akzeptanz von genAI, das zunehmende Risiko, das genAI darstellt, und die Strategien, die Unternehmen zur Reduzierung dieses Risikos eingeführt haben. Als wir 2023 zum ersten Mal einen Generative AI Cloud and Threat Report veröffentlichten, war genAI noch eine aufstrebende Technologie, die praktisch ein Synonym für ChatGPT war. Googles kürzlich veröffentlichter Bard (jetzt Gemini) gewann schnell neue Nutzer, war aber weit davon entfernt, die Dominanz von ChatGPT in Frage zu stellen. Nur 1 von 100 Unternehmensanwendern verwendete genAI-Apps. Spulen wir vor ins Jahr 2025: Fast 1 von 20 Unternehmensnutzern verwendet genAI-Apps, und noch mehr nutzen indirekt genAI oder tragen Daten zum Trainieren von KI-Modellen bei. Netskope verfolgt derzeit die Nutzung von 317 verschiedenen genAI-Apps bei mehr als 3.500 Kunden.

Dieser Bericht zielt darauf ab, eine datengestützte Bilanzierung der wichtigsten genAI-Trends bereitzustellen und dabei die Akzeptanz, das Risiko und die Risikoreduzierung hervorzuheben. Es beginnt mit der Untersuchung, wie allgegenwärtig genAI geworden ist, hebt die Datenrisiken im Zusammenhang mit ihrer Einführung hervor und analysiert die verschiedenen Arten von Kontrollen, die Unternehmen verwenden, um das Risiko zu reduzieren. Angesichts des Zeitpunkts dieses Berichts – nur wenige Monate, nachdem die Veröffentlichung von DeepSeek-V3 in Bezug auf die angegebenen Kosten und die Effizienz Wellen geschlagen hat – enthält er auch eine Fallstudie rund um DeepSeek. Die Fallstudie veranschaulicht, was passiert, wenn ein neues und faszinierendes genAI-Tool auf den Markt kommt, und zeigt die Best Practices auf, um die damit verbundenen Risiken zu reduzieren.

Der Rest dieses Berichts bietet einen tieferen Einblick in die folgenden Themen:

  • GenAI ist ein wachsendes Risiko für die Datensicherheit: Die Menge der Daten, die in Eingabeaufforderungen und Uploads an genAI-Apps gesendet werden, hat sich im vergangenen Jahr um mehr als das 30-fache erhöht, wodurch das Volumen sensibler Daten, insbesondere des Quellcodes, der regulierten Daten, des geistigen Eigentums und der Geheimnisse, gestiegen ist.
  • GenAI ist überall: Während die meisten Unternehmen (90 %) genAI-Apps verwenden, verwenden noch mehr (98 %) Apps, die genAI-Funktionen enthalten. Während genAI-Apps von einer relativ kleinen Bevölkerung (4,9 % der Nutzer) genutzt werden, verwendet die Mehrheit Apps mit genAI-Funktionen (75 % der Nutzer).
  • GenAI ist Schatten-IT: Die meiste Nutzung von genAI in Unternehmen (72 %) ist Schatten-IT, die von Einzelpersonen gesteuert wird, die persönliche Konten für den Zugriff auf genAI-Apps verwenden.
    GenAI-Risikominderung ist möglich: Blockierung, Data Loss Prevention (DLP) und Echtzeit-Benutzercoaching gehören zu den beliebtesten Kontrollen zur Reduzierung des genAI-Risikos.

 

test answer

Generative KI-Datenrisiken Link Link

Datensicherheit ist das Hauptrisiko, mit dem Unternehmen konfrontiert sind, wenn ihre Benutzer genAI-Apps einsetzen. Dieses Risiko ergibt sich aus zwei der beliebtesten Anwendungsfälle für genAI im Unternehmen:

  • Zusammenfassung: GenAI-Apps zeichnen sich durch die Zusammenfassung großer Dokumente, großer Datensätze und Quellcodes aus, was das Risiko birgt, dass Einzelpersonen vertrauliche Daten zur Zusammenfassung an genAI-Apps senden.
  • Generation: GenAI-Apps zeichnen sich durch die Generierung von Texten, Bildern, Videos und Quellcode aus, was das Risiko birgt, dass Personen, die an sensiblen Projekten arbeiten, sensible Daten an genAI-Apps weitergeben, um Inhalte zu generieren oder zu verbessern.

Die Hauptquelle für die Datenrisiken im Zusammenhang mit ihrer Verwendung besteht darin, dass die Anwendungsfälle für Zusammenfassung und Generierung erfordern, dass der Benutzer Daten an die genAI-Apps sendet, um einen Mehrwert zu schaffen. Zu diesen Risiken kommen weitere Faktoren hinzu, wie z. B. die Anzahl der Apps auf dem Markt und die Verbreitung von genAI-Apps als Schatten-IT innerhalb des Unternehmens, auf die wir später in diesem Bericht näher eingehen werden. Unternehmen, die Netskope zum Schutz ihrer sensiblen Daten verwenden, sind in der Regel mit vier verschiedenen Arten von sensiblen Daten befasst, die in genAI-Apps fließen:

  • Geistiges Eigentum: Geistiges Eigentum wird an genAI-Apps weitergegeben, wenn Benutzer versuchen, Kundenlisten, Verträge und andere Dokumente zu analysieren, die Geschäftsgeheimnisse oder vertrauliche Daten enthalten, die ein Unternehmen schützen möchte.
  • Passwörter und Schlüssel: Passwörter und Schlüssel werden oft an genAI-Apps weitergegeben, wenn sie in Code-Snippets eingebettet sind.
  • Regulierte Daten: Zu den regulierten Daten gehören hochsensible persönliche, Gesundheits- und Finanzdaten, die am häufigsten an genAI-Apps in Sektoren weitergegeben werden, die mit solchen Daten arbeiten, insbesondere im Gesundheitswesen und bei Finanzdienstleistungen.
  • Quellcode: Ein beliebter Anwendungsfall für genAI-Apps ist die Zusammenfassung, Generierung oder Bearbeitung von Quellcode, was dazu führt, dass Benutzer versehentlich vertraulichen Quellcode an nicht genehmigte Apps weitergeben.

Die folgende Abbildung zeigt, wie häufig diese fünf Arten von Daten unter Verstoß gegen die Unternehmensrichtlinien an genAI-Apps gesendet werden, wobei fast die Hälfte aller Verstöße auf den Quellcode entfällt, gefolgt von regulierten Daten, geistigem Eigentum sowie Passwörtern und Schlüsseln. Der Rest dieses Berichts richtet sich an Sicherheitsverantwortliche in Unternehmen, die mit solchen sensiblen Daten zu tun haben. Wie kann ein Unternehmen seine sensibelsten Daten vor unerwünschter Offenlegung schützen und gleichzeitig seinen Benutzern die Nutzung von genAI-Apps ermöglichen?

Cloud- und Bedrohungsbericht – Generative KI 2025 – Art der Verstöße gegen die Datenrichtlinie für genAI-Apps

 

Generative KI überall Link Link

Generative KI ist überall. Im Jahr 2022 stellte sich vor allem die Frage, ob die Vorteile der Zulassung von ChatGPT die Risiken überwiegen. Heute verfolgt Netskope 317 genAI-Apps, die jeweils eine etwas nuanciertere Reihe von Fragen aufwerfen: Welche Apps sollten wir zulassen und welche Kontrollen sollten wir einrichten, um die Datensicherheitsrisiken für diese Apps zu mindern? Die folgende Abbildung schlüsselt den Prozentsatz der Organisationen auf, die jede der 10 wichtigsten genAI-Apps verwenden, und unterstreicht, dass die meisten Unternehmen beschlossen haben, mehrere genAI-Apps zuzulassen.

Cloud- und Bedrohungsbericht – Generative KI 2025 – Die beliebtesten genAI-Apps basierend auf dem Prozentsatz der Organisationen, die diese Apps verwenden

Die folgende Abbildung zeigt die Beliebtheit derselben 10 Apps im vergangenen Jahr und verdeutlicht die sich schnell verändernde KI-Landschaft und wie viele Unternehmen solche Entscheidungen aktiv treffen. Sogar Apps, die allgemein als allgegenwärtig gelten, wie ChatGPT, werden erst jetzt zum ersten Mal in einigen Unternehmen eingeführt. Neueinsteiger wie Microsoft 365 Copilot befinden sich derzeit in der Phase der schnellen Einführung, ähnlich wie Microsoft Copilot Anfang 2024. Andere, wie Google Gemini, Anthropic Claude, GitHub Copilot und Gamma, werden nach und nach in neuen Organisationen eingeführt. Google Gemini schließt langsam die Lücke zu ChatGPT.

Cloud- und Bedrohungsbericht – Generative KI 2025 – Beliebteste Apps nach Prozentsatz der Unternehmen

Zusätzlich zu den Entscheidungen, die Unternehmen über Hunderte von genAI-Apps treffen müssen, müssen Unternehmen auch die Hunderte von zusätzlichen Apps berücksichtigen, die jetzt genAI-gestützte Funktionen bieten. Beispiele für solche Apps sind:

  • Gerne: Eine Customer-Experience-Plattform, die KI nutzt, um die Kundenkommunikation zu optimieren.
  • Eingeweihte: Eine Wachstumsmanagement-Plattform, die KI nutzt, um Kundendaten zu analysieren und granulare Nachrichten zu optimieren.
  • Gitter: HR-Software, die KI verwendet, um Mitarbeiterdaten zusammenzufassen, Schreibhilfe anzubieten und benutzerdefinierte Onboarding-Videos zu erstellen, die auf neue Mitarbeiter zugeschnitten sind.
  • LinkedIn: Ein soziales Netzwerk, das genAI verwendet, um seine Nutzer bei der Erstellung von Inhalten (Beiträge, Profile, Stellenbeschreibungen usw.) zu unterstützen und Nutzerdaten zu nutzen, um neue Modelle zu trainieren.
  • Moveworks: Eine IT-Support-Plattform, die KI für die Aufgabenautomatisierung, den Informationsabruf, mehrsprachigen Support und die KI-gesteuerte Workflow-Optimierung in allen Geschäftssystemen einsetzt.

Die folgende Abbildung zeigt, dass die meisten Unternehmen genAI heute in irgendeiner Weise einsetzen.

  • 90 % der Unternehmen haben Nutzer, die direkt auf genAI-Apps wie ChatGPT, Google Gemini und GitHub Copilot zugreifen.
  • 98 % der Unternehmen haben Benutzer, die auf Apps zugreifen, die genAI-gestützte Funktionen bieten, wie Gladly, Insider, Lattice, LinkedIn und Moveworks.

Cloud- und Bedrohungsbericht – Generative KI 2025 – Prozentsatz der Organisationen

Auf der Benutzerebene sind diese Unterschiede noch ausgeprägter. Obwohl die meisten Unternehmen genAI-Apps direkt verwenden, ist die Anzahl der Benutzer in diesen Organisationen immer noch relativ klein (4,9 % der Benutzer). Auf der anderen Seite sind Apps, die genAI-gestützte Funktionen enthalten, viel häufiger (75 % der Nutzer).

Cloud- und Bedrohungsbericht - Generative KI 2025 - Durchschnittlicher Prozentsatz der Nutzer

Mit den beiden vorangegangenen Abbildungen soll unterstrichen werden, dass der Einsatz von genAI im Unternehmen noch weiter verbreitet ist, als es auf den ersten Blick erscheinen mag. Apps, die indirekt genAI-Funktionen enthalten, bergen die gleichen Risiken wie genAI-Apps. Um einen umfassenden Einblick in generative KI-Risiken zu bieten, bietet Netskope den Cloud Confidence Index, der diese und viele andere Attribute für mehr als 82.000 Cloud-Anwendungen verfolgt.

 

Generative KI auf dem Vormarsch Link Link

Die Einführung generativer KI nimmt in Unternehmen nach vielen verschiedenen Maßstäben zu. Dennoch ist keines der Daten aus Sicht der Datensicherheit so wichtig wie die Menge der Daten, die an genAI-Apps gesendet werden: Jeder Beitrag oder Upload ist eine Gelegenheit zur Offenlegung von Daten. In diesem Abschnitt wird hervorgehoben, dass die Menge der Daten, die an genAI-Apps gesendet werden, im vergangenen Jahr um mehr als das 30-fache gestiegen ist. Das ist das 30-fache der Anzahl von Posts und Uploads und 30-mal so viele Möglichkeiten für die Offenlegung sensibler Daten wie noch vor einem Jahr. Darüber hinaus gehen wir davon aus, dass das Datenvolumen, das in genAI-Apps fließt, im Jahr 2025 in ähnlichem Maße weiter zunehmen wird.

Das Wachstum der Datenmenge, die an genAI-Apps gesendet wird, übertrifft bei weitem den Anstieg der Anzahl der genAI-Nutzer und der Anzahl der genAI-Apps. Während die Nutzerbasis für genAI-Apps auf absehbare Zeit relativ klein bleiben wird, werden die Datenrisiken dramatisch zunehmen, wenn die Nutzung von genAI in dieser Bevölkerung zunimmt. Der Rest dieses Abschnitts bietet detailliertere Einblicke in das gestiegene Datenvolumen, die Benutzeranzahl und die Anzahl der Apps, die wir im vergangenen Jahr beobachtet haben.

Datenvolumen

Obwohl die Population der genAI-Benutzer im Verhältnis zur Gesamtbevölkerung des Unternehmens recht klein ist, nimmt die Datenmenge, die diese Benutzer an genAI-Apps senden, rapide zu. Im vergangenen Jahr ist die durchschnittliche Datenmenge, die jeden Monat an genAI-Apps gesendet wird (hauptsächlich in Eingabeaufforderungen und Uploads), von nur 250 MB pro Monat auf 7,7 GB um mehr als das 30-fache gestiegen. Die besten 25 % der Unternehmen verzeichneten einen ähnlichen Anstieg von mehr als 790 MB pro Monat auf mehr als 20 GB pro Monat. Der rasante Anstieg des Datenvolumens, das an genAI-Apps gesendet wird, erhöht das Datensicherheitsrisiko erheblich. Mehr Daten bedeuten ein höheres Potenzial für vertrauliche Informationen, die von diesen Apps offengelegt oder falsch gehandhabt werden können. Wir gehen davon aus, dass bis Ende 2025 durchschnittlich mehr als 15 GB pro Monat an genAI-Apps gesendet werden.

Cloud- und Bedrohungsbericht – Generative KI 2025 – An genAI-Apps gesendete Daten pro Organisation Mittleres Datenvolumen mit schattiertem Bereich im 1. und 3. Quartil

Anzahl der Benutzer

Während die meisten Unternehmen genAI verwenden, nutzt ein kleiner, aber stetig wachsender Prozentsatz der Nutzer genAI Apps aktiv. Die Zahl der Personen, die genAI-Apps im Unternehmen nutzen, hat sich im vergangenen Jahr fast verdoppelt, wobei durchschnittlich 4,9 % der Personen in jedem Unternehmen genAI-Apps verwenden, wie in der folgenden Abbildung zu sehen ist. Aktive Nutzung im Kontext von genAI bedeutet das Senden von Eingabeaufforderungen an Chatbots oder die anderweitige sinnvolle Interaktion mit der App. In den oberen 25 % der Unternehmen nutzen mindestens 17 % der Nutzer aktiv genAI-Apps, während in den oberen 10 % mehr als ein Drittel (35 %) der Nutzer genAI-Apps aktiv nutzen. Wir gehen davon aus, dass sich dieser Trend im Jahr 2025 fortsetzen wird.

Cloud- und Bedrohungsbericht - Generative KI 2025 - GenAI-Nutzer pro Monat mittlerer Prozentsatz mit schattiertem Bereich im 1. und 3. Quartil

Anzahl der Apps

Die Anzahl der genAI-Apps, die jedes Unternehmen verwendet, steigt allmählich an, und es sind jetzt durchschnittlich fast sechs verschiedene genAI-Apps im Einsatz. Die besten 25 % der Unternehmen verwenden mindestens 13 Apps, und die oberen 1 % (nicht abgebildet) verwenden mindestens 40. Da Netskope insgesamt 317 verschiedene KI-Apps verfolgt und weiterhin aggressiv in KI-Startups investiert wird, gehen wir davon aus, dass die Anzahl der Apps, die jedes Unternehmen verwendet, im Jahr 2025 weiter steigen wird. Der Anstieg der Anzahl von Apps unterstreicht, wie wichtig es ist, Kontrollen zu implementieren, um die mit neuen Apps verbundenen Risiken zu begrenzen. Später in diesem Bericht stellen wir eine detaillierte Fallstudie von DeepSeek-R1 zur Verfügung, um zu zeigen, wie verschiedene Unternehmen auf die schnelle Einführung des neuen Chatbots reagiert haben.

Cloud- und Bedrohungsbericht – Generative KI 2025 – GenAI-Apps pro Organisation Median mit schattiertem Bereich mit 1. und 3. Quartil

 

Schatten-IT/Schatten-KI Link Link

Die Einführung von GenAI-Apps in Unternehmen folgt dem typischen Muster neuer Cloud-Dienste: Einzelne Benutzer verwenden persönliche Konten, um auf die App zuzugreifen. Das Ergebnis ist, dass der Großteil der Nutzung von genAI-Apps im Unternehmen als Schatten-IT eingestuft werden kann, ein Begriff, der verwendet wird, um Lösungen zu beschreiben, die ohne das Wissen oder die Zustimmung der IT-Abteilung verwendet werden. Ein neuerer Begriff, Schatten-KI, wurde speziell für den Spezialfall von KI-Lösungen geprägt. Der Begriff "Schatten" in Schatten-IT und Schatten-KI soll die Idee hervorrufen, dass die Apps versteckt, inoffiziell und außerhalb der Standardprozesse arbeiten. Auch heute, mehr als zwei Jahre nachdem die Veröffentlichung von ChatGPT den genAI-Wahnsinn ausgelöst hat, verwendet die Mehrheit (72 %) der genAI-Nutzer immer noch persönliche Konten, um am Arbeitsplatz auf ChatGPT, Google Gemini, Grammarly und andere beliebte genAI-Apps zuzugreifen.

Die folgende Abbildung zeigt, wie viele Personen im vergangenen Jahr persönliche genAI-Konten bei der Arbeit verwendet haben. Diese Zahl ist allmählich von 82 % vor einem Jahr auf heute 72 % gesunken. Dies ist zwar ein ermutigender Trend, aber es ist noch ein langer Weg, bis die meisten Benutzer zu Konten gewechselt sind, die von ihrer Organisation verwaltet werden. Beim derzeitigen Tempo werden die meisten Nutzer bis 2026 noch persönliche Konten verwenden. Ein kleiner Teil der Benutzer (5,4 %) verwendet eine Kombination aus persönlichen Konten und von der Organisation verwalteten Konten, was darauf hindeutet, dass selbst in Organisationen, in denen unternehmensverwaltete Apps vorhanden sind, viele Benutzer immer noch persönliche Konten verwenden.

Cloud- und Bedrohungsbericht – Generative KI 2025 – Aufschlüsselung der GenAI-Nutzung nach persönlichen und organisatorischen Konten

Da die meisten genAI-Nutzer persönliche Konten verwenden, unterscheidet sich die Verteilung der Verstöße gegen die Datenrichtlinie für persönliche Konten nicht wesentlich von der breiteren Verteilung. Die folgende Abbildung zeigt die Verteilung, wobei Verstöße gegen den Quellcode am häufigsten vorkommen, gefolgt von regulierten Daten, geistigem Eigentum sowie Passwörtern und Schlüsseln.

Cloud- und Bedrohungsbericht – Generative KI 2025 – Art von Verstößen gegen die Datenrichtlinie für persönliche genAI-Apps

 

DeepSeek: Eine Fallstudie zur frühen Einführung generativer KI Link Link

Am 20. Januar 2025 hat das chinesische Unternehmen DeepSeek seinen ersten Chatbot auf Basis seines Modells DeepSeek-R1 veröffentlicht. DeepSeek gibt an, das Modell mit deutlich geringeren Kosten als OpenAI-o1 und mit wesentlich weniger Rechenleistung als Llama-3.1 trainiert zu haben. Diese Behauptungen warfen die Frage auf, ob es nun eine niedrigere Eintrittsbarriere im Bereich der genAI gibt, ob DeepSeek-R1 die genAI-Innovation beschleunigen und ob DeepSeek-R1 die Wettbewerbslandschaft stören wird. Diese Fragen führten zu einem erheblichen Medienecho und weckten das Interesse von genAI-Enthusiasten weltweit.

Die folgende Abbildung zeigt den Prozentsatz der Organisationen, in denen Personen DeepSeek in den Wochen nach der Veröffentlichung von DeepSeek-R1 verwendet oder versucht haben, DeepSeek zu verwenden. Zu Spitzenzeiten hatten 91 % der Unternehmen weltweit Benutzer, die versuchten, auf DeepSeek zuzugreifen, wobei 75 % den gesamten Zugriff blockierten, 8 % granulare Zugriffskontrollrichtlinien verwendeten und 8 % den gesamten Zugriff erlaubten. Die 75 % der Unternehmen, die den Zugriff blockierten, verfügten über präventive Richtlinien zum Blockieren von genAI-Apps, die von der Sicherheitsorganisation nicht genehmigt worden waren. Präventive Blockierungsrichtlinien haben die Datensicherheitsrisiken neuer Benutzer, die DeepSeek ausprobieren, erfolgreich gemindert. In den folgenden Wochen ließ das Interesse nach, und der Prozentsatz der Unternehmen mit DeepSeek-Benutzern ging von Woche zu Woche zurück.

Cloud- und Bedrohungsbericht – Generative KI 2025 – Prozentsatz der Organisationen mit DeepSeek-Benutzern pro Woche

Die folgende Abbildung zeigt eine noch detailliertere Ansicht, in der die tägliche Anzahl der Benutzer auf der gesamten Plattform betrachtet und aufgeschlüsselt wird, wer blockiert und zugelassen wurde. Zu Spitzenzeiten versuchten 0,16 % der Benutzer in einem durchschnittlichen Unternehmen, DeepSeek zu verwenden, und wurden blockiert, während 0,002 % der Benutzer zugelassen wurden. Nach dem anfänglichen Höhepunkt ging die Anzahl der Benutzer, die versuchten, DeepSeek zu verwenden, zurück, da das Interesse nachließ und die Benutzer ihr Verhalten als Reaktion auf die Blöcke änderten.

Das Diagramm zeigt auch, dass zwar 91 % der Unternehmen Benutzer hatten, die versuchten, DeepSeek zu verwenden, die Gesamtbenutzerpopulation jedoch recht klein war. Eine begrenzte frühe Einführung ist typisch für neue Technologien. Die geringe Anzahl von Early Adopters bedeutet, dass die Risiken der Einführung von präventiven Blockrichtlinien nur geringe negative Auswirkungen auf das Geschäft haben werden.

Cloud- und Bedrohungsbericht – Generative KI 2025 – Durchschnittlicher Prozentsatz der Personen, die DeepSeek nutzen

Diese DeepSeek-Fallstudie enthält wichtige Erkenntnisse für Unternehmen, die ihre Datensicherheitsrisiken im Zusammenhang mit neu veröffentlichten KI-Apps reduzieren möchten:

  • Early Adopters von neuen genAI-Apps sind in fast jedem (91 %) Unternehmen vorhanden. Early Adopters stellen ein erhebliches Sicherheitsrisiko dar, wenn sie sensible Daten an diese Apps senden.
  • Die meisten Unternehmen haben für neue genAI-Apps eine "Erst blockieren und dann Fragen stellen"-Richtlinie eingeführt. Anstatt neue Apps zu blockieren, die ihre Benutzer ausprobieren könnten, lassen sie bestimmte Apps explizit zu und blockieren alle anderen. Diese Art von Richtlinie eignet sich hervorragend zur Risikominderung, da sie dem Unternehmen Einblick gibt, wer die App ausprobiert, und ihm Zeit gibt, eine ordnungsgemäße Überprüfung durchzuführen. Da die Grundgesamtheit der Early Adopters winzig ist, halten sich die potenziellen negativen Auswirkungen auf das Unternehmen in Grenzen.

 

Lokale generative KI-Einführung Link Link

Eine Möglichkeit, die durch Cloud-basierte genAI-Apps verursachten Datenrisiken zu managen, besteht darin, die genAI-Infrastruktur lokal zu betreiben. Die lokale Ausführung wird immer zugänglicher, ermöglicht durch Organisationen wie DeepSeek und Meta , die ihre Modelle zum Download zur Verfügung gestellt haben, durch Tools wie Ollama und LM Studio , die Tools bereitstellen, um die lokale Ausführung von Modellen zu ermöglichen, und Communities wie Hugging Face , die den Austausch von Modellen und Daten erleichtern. Einige Unternehmen trainieren sogar ihre eigenen Modelle, verwenden Retrieval Augmented Generation (RAG), um genAI und Information Retrieval zu kombinieren, oder bauen ihre eigenen Tools auf bestehenden Modellen auf.

Im vergangenen Jahr ist die Zahl der Unternehmen, die eine genAI-Infrastruktur lokal betreiben, drastisch gestiegen, von weniger als 1 % auf 54 %. Der größte Teil des Wachstums fand in der ersten Hälfte des Jahres 2024 statt und hat sich seitdem eingependelt. Wir gehen davon aus, dass sich dieser Trend mit nur moderaten Zuwächsen im kommenden Jahr fortsetzen wird. Wie erwartet ist die Nutzerpopulation, die eine lokale genAI-Infrastruktur betreibt, mit durchschnittlich weniger als 0,1 % der Nutzer recht klein. In dieser Benutzergruppe ist Ollama das beliebteste Tool, um das lokale Ausführen von Modellen zu ermöglichen, und Hugging Face ist der beliebteste Ort zum Herunterladen von Modellen, Tools und anderen Ressourcen.

Cloud- und Bedrohungsbericht - Generative KI 2025 - Unternehmen, die genAI lokal einsetzen

Die Umstellung von der Verwendung von genAI-Apps auf lokale genAI-Modelle verändert die Risikolandschaft und bringt mehrere zusätzliche Risiken mit sich. Die OWASP Top 10 for Large Language Model Applications bieten einen Rahmen, um über solche Risiken nachzudenken, darunter:

  • Lieferkette: Können Sie allen Tools und Modellen vertrauen, die Sie verwenden?
  • Datenlecks: Gibt Ihr System vertrauliche Informationen aus dem Training, verbundenen Datenquellen oder anderen Benutzern preis?
  • Unsachgemäße Behandlung der Ausgabe: Gibt es Systeme, die genAI-Ausgaben verarbeiten, tun dies sicher?

Mitre Atlas ist ein weiteres Framework zur Berücksichtigung von KI-Risiken. Es bietet einen detaillierten Überblick über Angriffe auf KI-Systeme. Diejenigen, die selbstverwaltete genAI-Systeme betreiben, müssen auch diese Angriffe in Betracht ziehen, darunter:

  • Sofortige Injektion: Können Angreifer Eingabeaufforderungen erstellen, um das Modell dazu zu bringen, unerwünschte Ausgaben auszugeben?
  • Jailbreaks: Können Angreifer Kontrollen, Beschränkungen und Leitplanken umgehen?
    Meta-Prompt-Extraktion: Können Angreifer Details über das Innenleben des Systems preisgeben?

Mit anderen Worten: Der Wechsel von Cloud-basierten genAI-Apps zu lokal gehosteten genAI-Modellen verringert das Risiko einer unerwünschten Datenoffenlegung gegenüber Dritten, birgt aber mehrere zusätzliche Risiken. Das Training eigener Modelle oder der Einsatz von RAG erhöht diese Risiken weiter. Was wir bisher sehen, ist jedoch kein Trend weg von der Nutzung von Cloud-Diensten. Wie wir bereits in diesem Bericht hervorgehoben haben, nimmt die Anzahl der Personen, die genAI Cloud-Apps verwenden, die Anzahl der verwendeten Apps und die Menge der Daten, die an diese Apps gesendet werden, zu. Stattdessen sehen wir die Hinzufügung einer lokal gehosteten genAI-Infrastruktur zusätzlich zu den Cloud-basierten genAI-Apps, die bereits im Einsatz sind. Das lokale Hosting von genAI-Modellen stellt ein additives Risiko dar.

 

Risikominderung bei generativer KI Link Link

Mehr als 99 % der Unternehmen setzen Richtlinien durch, um die mit genAI-Apps verbundenen Risiken zu reduzieren. Zu diesen Richtlinien gehören das Blockieren aller oder der meisten genAI-Apps für alle Benutzer, das Steuern, welche spezifischen Benutzergruppen genAI-Apps verwenden können, und die Kontrolle der Daten, die in genAI-Apps zugelassen sind. In den folgenden Abschnitten werden die einzelnen Richtlinien aufgeschlüsselt, die am beliebtesten sind.

Blockierend

Das Blockieren ist die einfachste Strategie zur Risikominderung und daher die beliebteste. Die Herausforderung beim Blockieren ist zweifach. Erstens kann sich das Blockieren auf das Unternehmen auswirken, indem es die Produktivität der Benutzer einschränkt. Zweitens kann das Blockieren die Nutzer dazu bringen, kreativ zu werden, z. B. indem sie persönliche Geräte oder persönliche Mobilfunknetze verwenden, um Sperren zu umgehen. Während 83 % der Unternehmen Blockierungsrichtlinien für einige Apps verwenden, ist der Geltungsbereich dieser Richtlinien zielgerichtet. Die folgende Abbildung zeigt, dass die Anzahl der aktiv blockierten Apps (d. h. es gibt eine Richtlinie zum Blockieren der App und Benutzer versuchen, die App trotzdem zu verwenden) in der gesamten Organisation (d. h. niemand in der Organisation darf sie verwenden) in der gesamten Organisation allmählich zunimmt, wobei heute durchschnittlich vier Apps blockiert werden. Die oberen 25 % der Unternehmen blockieren mindestens 20 Apps, während die oberen 1 % (nicht abgebildet) mehr als 100 Apps blockieren.

Cloud- und Bedrohungsbericht – Generative KI 2025 – Anzahl der pro Organisation blockierten Apps Median mit schattiertem Bereich im 1. und 3. Quartil

Die Aufschlüsselung der 10 am häufigsten blockierten Apps in der folgenden Abbildung gibt einen Einblick in unternehmensweite Blockierungsstrategien. Die beliebtesten Apps (ChatGPT, Gemini, Copilot) erscheinen nicht auf dieser Liste, und die Apps, die auf dieser Liste erscheinen, haben viele Alternativen auf dem Markt. In den Fällen, in denen es viele Alternativen gibt, verwenden Organisationen Blockierungsrichtlinien, um ihre Benutzer zu bestimmten genehmigten Apps und weg von nicht genehmigten Apps zu leiten. In einigen Fällen, wie z. B. bei Stable Diffusion (einem Bildgenerator), dient die App möglicherweise keinem legitimen Geschäftszweck.

Cloud- und Bedrohungsbericht – Generative KI 2025 – Die am meisten blockierten KI-Apps nach Prozentsatz der Organisationen, die ein generelles Verbot der App erlassen

Benutzercoaching in Echtzeit

Im vorherigen Abschnitt wurde diese Vorstellung erwähnt, Benutzer von bestimmten Apps weg und hin zu anderen mit Blockierungsrichtlinien zu lenken. Echtzeit-Benutzercoaching bietet eine nuanciertere Alternative zur Blockierungsrichtlinie, die Benutzer daran erinnern kann, dass eine bestimmte App nicht für den Umgang mit sensiblen Daten zugelassen ist, es dem Endbenutzer jedoch ermöglicht, zu entscheiden, ob er sie verwenden möchte oder nicht. Echtzeit-Benutzercoaching ist effektiv, weil es den Benutzer befähigt, im Moment die richtige Entscheidung zu treffen. Es hilft auch, das Benutzerverhalten zu beeinflussen, indem es unmittelbares Feedback und Anleitungen bietet.

Coaching, eine nuanciertere Politik als das Blockieren, ist weniger verbreitet, nimmt aber immer noch zu. 35 % der Unternehmen nutzen Echtzeit-Coaching, um genAI-Risiken zu reduzieren. Wir gehen davon aus, dass dieser Anteil im kommenden Jahr auf mehr als 40 % steigen wird. Unternehmen kombinieren Coaching häufig mit anderen Richtlinien, z. B. Richtlinien zur Verhinderung von Datenverlust.

Cloud- und Bedrohungsbericht – Generative KI 2025 – Prozentsatz der Unternehmen, die Echtzeit-Benutzer-Coaching nutzen, um den Zugriff auf genAI-Anwendungen zu kontrollieren

Data Loss Prevention

Data Loss Prevention (DLP) reduziert die mit genAI-Apps verbundenen Risiken, indem Eingabeaufforderungen und Daten, die an genAI-Apps gesendet werden, in Echtzeit überprüft werden. DLP kann auf der Grundlage von Regeln, die von Administratoren konfiguriert wurden, entscheiden, ob der Inhalt zugelassen oder blockiert werden soll. Geistiges Eigentum, Geheimnisse, regulierte Daten und Quellcode sind die vier häufigsten Arten von Daten, die Unternehmen nicht mit genAI-Apps teilen dürfen. Die unten abgebildeten DLP-Richtlinien für genAI haben zu Beginn des Jahres 2025 an Popularität gewonnen und sich in letzter Zeit eingependelt, wobei 47 % der Unternehmen DLP verwenden, um den Zugriff auf genAI-Apps zu kontrollieren.

Cloud- und Bedrohungsbericht – Generative KI 2025 – Prozentsatz der Unternehmen, die DLP verwenden, um den Zugriff auf genAI-Anwendungen zu kontrollieren

 

Eine CISO-Perspektive Link Link

CISOs und Sicherheitsverantwortliche, die dies lesen, sollten sich große Sorgen über die Datensicherheitsrisiken machen, die mit dem rasant wachsenden Einsatz von genAI-Technologien verbunden sind. Cloud-basierte genAI-Apps und lokal gehostete genAI-Modelle bergen ein wachsendes Risiko der unerwünschten Datenoffenlegung und einer Reihe neuer Sicherheitslücken.

Unternehmen müssen sofort Maßnahmen ergreifen, um diese Risiken effektiv zu managen. Ich ermutige Führungskräfte, das NIST AI Risk Management Framework zu überprüfen, das eine wertvolle Roadmap für Unternehmen bietet, um genAI-Risiken zu steuern, abzubilden, zu messen und zu managen.

Zu den spezifischen Schritten, die Organisationen ausführen können, gehören die folgenden:

  1. Bewerten Sie Ihre genAI-Landschaft: Verstehen Sie, welche genAI-Apps und lokal gehostete genAI-Infrastruktur Sie verwenden, wer sie verwendet und wie sie verwendet werden.
  2. Stärken Sie Ihre genAI-App-Steuerelemente: Überprüfen Sie Ihre Kontrollen regelmäßig und vergleichen Sie sie mit Best Practices, z. B. das Zulassen nur genehmigter Apps, das Blockieren nicht genehmigter Apps, die Verwendung von DLP, um zu verhindern, dass vertrauliche Daten mit nicht autorisierten Apps geteilt werden, und die Nutzung von Echtzeit-Benutzercoaching.
  3. Inventarisieren Sie Ihre lokalen Kontrollen: Wenn Sie eine genAI-Infrastruktur lokal ausführen, überprüfen Sie relevante Frameworks wie die OWASP Top 10 for Large Language Model Applications, das NIST AI Risk Management Framework und den Mitre Atlas, um einen angemessenen Schutz von Daten, Benutzern und Netzwerken zu gewährleisten.
    Es ist von entscheidender Bedeutung, den Einsatz von genAI in Ihrem Unternehmen kontinuierlich zu überwachen und über neue Entwicklungen in der KI-Ethik, regulatorische Änderungen und gegnerische Angriffe auf dem Laufenden zu bleiben.

Alle Cyber- und Risikoverantwortlichen sollten KI-Governance- und Risikoprogrammen Vorrang einräumen, um den sich entwickelnden Herausforderungen durch genAI-Technologien und deren Einführung durch Schatten-KI-Praktiken gerecht zu werden. Indem wir proaktive Schritte zum Management dieser Risiken unternehmen, können wir die sichere und verantwortungsvolle Einführung und Nutzung von genAI zum Nutzen Ihres Unternehmens gewährleisten.

 

Netskope Threat Labs Link Link

Netskope Threat Labs besteht aus den branchenweit führenden Forschern für Cloud-Bedrohungen und Malware, die Abwehrmaßnahmen gegen die neuesten Cloud-Bedrohungen entdecken, analysieren und entwickeln, die Unternehmen betreffen. Unsere Forscher sind regelmäßige Referenten und Freiwillige auf führenden Sicherheitskonferenzen, darunter DefCon, BlackHat und RSA.

 

Über diesen Bericht Link Link

Netskope bietet Millionen von Anwendern weltweit Schutz vor Bedrohungen. Die in diesem Bericht enthaltenen Informationen basieren auf anonymisierten Nutzungsdaten, die von der Netskope One-Plattform erfasst wurden und sich auf eine Untergruppe von Netskope-Kunden mit vorheriger Genehmigung beziehen.

Dieser Bericht enthält Informationen zu Erkennungen, die von NetskopeNext Generation Secure Web Gateway (SWG) ausgelöst wurden, ohne die Bedeutung der Auswirkungen der einzelnen Bedrohungen zu berücksichtigen. Die Statistiken in diesem Bericht basieren auf dem Zeitraum vom 1. Februar 2024 bis zum 28. Februar 2025. Die Statistiken spiegeln die Taktiken von Angreifern, das Benutzerverhalten und die Unternehmensrichtlinien wider.

Cloud- und Bedrohungsberichte

The Netskope Cloud and Threat Report delivers unique insights into the adoption of cloud applications, changes in the cloud-enabled threat landscape, and the risks to enterprise data.

Gewitter mit Blitzen über der Stadt in der Nacht

Beschleunigen Sie Ihr Cloud-, Daten- und Netzwerksicherheitsprogramm mit einem SASE Leader