Netskope wird im Gartner® Magic Quadrant™ für SASE-Plattformen erneut als Leader ausgezeichnet.Holen Sie sich den Bericht

Schließen
Schließen
Ihr Netzwerk von morgen
Ihr Netzwerk von morgen
Planen Sie Ihren Weg zu einem schnelleren, sichereren und widerstandsfähigeren Netzwerk, das auf die von Ihnen unterstützten Anwendungen und Benutzer zugeschnitten ist.
          Erleben Sie Netskope
          Machen Sie sich mit der Netskope-Plattform vertraut
          Hier haben Sie die Chance, die Single-Cloud-Plattform Netskope One aus erster Hand zu erleben. Melden Sie sich für praktische Übungen zum Selbststudium an, nehmen Sie an monatlichen Live-Produktdemos teil, testen Sie Netskope Private Access kostenlos oder nehmen Sie an Live-Workshops teil, die von einem Kursleiter geleitet werden.
            Ein führendes Unternehmen im Bereich SSE. Jetzt ein führender Anbieter von SASE.
            Netskope wird als Leader mit der weitreichendsten Vision sowohl im Bereich SSE als auch bei SASE Plattformen anerkannt
            2X a Leader in the Gartner® Magic Quadrant for SASE Platforms
            One unified platform built for your journey
              Generative KI für Dummies sichern
              Generative KI für Dummies sichern
              Erfahren Sie, wie Ihr Unternehmen das innovative Potenzial generativer KI mit robusten Datensicherheitspraktiken in Einklang bringen kann.
                Moderne Data Loss Prevention (DLP) für Dummies – E-Book
                Moderne Data Loss Prevention (DLP) für Dummies
                Hier finden Sie Tipps und Tricks für den Übergang zu einem cloudbasierten DLP.
                  Modernes SD-WAN für SASE Dummies-Buch
                  Modernes SD-WAN für SASE-Dummies
                  Hören Sie auf, mit Ihrer Netzwerkarchitektur Schritt zu halten
                    Verstehen, wo die Risiken liegen
                    Advanced Analytics verändert die Art und Weise, wie Sicherheitsteams datengestützte Erkenntnisse anwenden, um bessere Richtlinien zu implementieren. Mit Advanced Analytics können Sie Trends erkennen, sich auf Problembereiche konzentrieren und die Daten nutzen, um Maßnahmen zu ergreifen.
                        Die 6 überzeugendsten Anwendungsfälle für den vollständigen Ersatz älterer VPNs
                        Die 6 überzeugendsten Anwendungsfälle für den vollständigen Ersatz älterer VPNs
                        Netskope One Private Access ist die einzige Lösung, mit der Sie Ihr VPN endgültig in den Ruhestand schicken können.
                          Colgate-Palmolive schützt sein "geistiges Eigentum" mit intelligentem und anpassungsfähigem Datenschutz
                          Colgate-Palmolive schützt sein "geistiges Eigentum" mit intelligentem und anpassungsfähigem Datenschutz
                            Netskope GovCloud
                            Netskope erhält die FedRAMP High Authorization
                            Wählen Sie Netskope GovCloud, um die Transformation Ihrer Agentur zu beschleunigen.
                              Lassen Sie uns gemeinsam Großes erreichen
                              Die partnerorientierte Markteinführungsstrategie von Netskope ermöglicht es unseren Partnern, ihr Wachstum und ihre Rentabilität zu maximieren und gleichzeitig die Unternehmenssicherheit an neue Anforderungen anzupassen.
                                ""
                                Netskope Cloud Exchange
                                Netskope Cloud Exchange (CE) bietet Kunden leistungsstarke Integrationstools, mit denen sie Investitionen in ihre gesamte Sicherheitslage nutzen können.
                                  Technischer Support von Netskope
                                  Technischer Support von Netskope
                                  Überall auf der Welt sorgen unsere qualifizierten Support-Ingenieure mit verschiedensten Erfahrungen in den Bereichen Cloud-Sicherheit, Netzwerke, Virtualisierung, Content Delivery und Software-Entwicklung für zeitnahen und qualitativ hochwertigen technischen Support.
                                    Netskope-Video
                                    Netskope-Schulung
                                    Netskope-Schulungen helfen Ihnen, ein Experte für Cloud-Sicherheit zu werden. Wir sind hier, um Ihnen zu helfen, Ihre digitale Transformation abzusichern und das Beste aus Ihrer Cloud, dem Web und Ihren privaten Anwendungen zu machen.

                                      Cloud- und Bedrohungsbericht:
                                      Generative KI 2025

                                      Dieser Bericht beschreibt den Anstieg der Einführung von generativer KI (GenAI) und stellt einen deutlichen Anstieg der Nutzung und des Datenvolumens im vergangenen Jahr fest. GenAI bietet zwar viele Vorteile, birgt aber auch Risiken für die Datensicherheit, vor allem durch Schatten-IT und das Durchsickern sensibler Informationen. Unternehmen können diese Risiken jedoch mindern, indem sie robuste Kontrollen wie Blockierung, DLP und Echtzeit-Benutzercoaching implementieren.
                                      Dunkle Wolke über dem Sonnenuntergang
                                      19 Min. gelesen

                                      Einführung Link Link

                                      Der Generative AI Cloud and Threat Report 2025 beleuchtet die zunehmende Akzeptanz von genAI, das zunehmende Risiko, das genAI darstellt, und die Strategien, die Unternehmen zur Reduzierung dieses Risikos eingeführt haben. Als wir 2023 zum ersten Mal einen Generative AI Cloud and Threat Report veröffentlichten, war genAI noch eine aufstrebende Technologie, die praktisch ein Synonym für ChatGPT war. Googles kürzlich veröffentlichter Bard (jetzt Gemini) gewann schnell neue Nutzer, war aber weit davon entfernt, die Dominanz von ChatGPT in Frage zu stellen. Nur 1 von 100 Unternehmensanwendern verwendete genAI-Apps. Spulen wir vor ins Jahr 2025: Fast 1 von 20 Unternehmensnutzern verwendet genAI-Apps, und noch mehr nutzen indirekt genAI oder tragen Daten zum Trainieren von KI-Modellen bei. Netskope verfolgt derzeit die Nutzung von 317 verschiedenen genAI-Apps bei mehr als 3.500 Kunden.

                                      Dieser Bericht zielt darauf ab, eine datengestützte Bilanzierung der wichtigsten genAI-Trends bereitzustellen und dabei die Akzeptanz, das Risiko und die Risikoreduzierung hervorzuheben. Es beginnt mit der Untersuchung, wie allgegenwärtig genAI geworden ist, hebt die Datenrisiken im Zusammenhang mit ihrer Einführung hervor und analysiert die verschiedenen Arten von Kontrollen, die Unternehmen verwenden, um das Risiko zu reduzieren. Angesichts des Zeitpunkts dieses Berichts – nur wenige Monate, nachdem die Veröffentlichung von DeepSeek-V3 in Bezug auf die angegebenen Kosten und die Effizienz Wellen geschlagen hat – enthält er auch eine Fallstudie rund um DeepSeek. Die Fallstudie veranschaulicht, was passiert, wenn ein neues und faszinierendes genAI-Tool auf den Markt kommt, und zeigt die Best Practices auf, um die damit verbundenen Risiken zu reduzieren.

                                      Der Rest dieses Berichts bietet einen tieferen Einblick in die folgenden Themen:

                                      • GenAI ist ein wachsendes Risiko für die Datensicherheit: Die Menge der Daten, die in Eingabeaufforderungen und Uploads an genAI-Apps gesendet werden, hat sich im vergangenen Jahr um mehr als das 30-fache erhöht, wodurch das Volumen sensibler Daten, insbesondere des Quellcodes, der regulierten Daten, des geistigen Eigentums und der Geheimnisse, gestiegen ist.
                                      • GenAI ist überall: Während die meisten Unternehmen (90 %) genAI-Apps verwenden, verwenden noch mehr (98 %) Apps, die genAI-Funktionen enthalten. Während genAI-Apps von einer relativ kleinen Bevölkerung (4,9 % der Nutzer) genutzt werden, verwendet die Mehrheit Apps mit genAI-Funktionen (75 % der Nutzer).
                                      • GenAI ist Schatten-IT: Die meiste Nutzung von genAI in Unternehmen (72 %) ist Schatten-IT, die von Einzelpersonen gesteuert wird, die persönliche Konten für den Zugriff auf genAI-Apps verwenden.
                                        GenAI-Risikominderung ist möglich: Blockierung, Data Loss Prevention (DLP) und Echtzeit-Benutzercoaching gehören zu den beliebtesten Kontrollen zur Reduzierung des genAI-Risikos.

                                       

                                      test answer

                                      Generative KI-Datenrisiken Link Link

                                      Datensicherheit ist das Hauptrisiko, mit dem Unternehmen konfrontiert sind, wenn ihre Benutzer genAI-Apps einsetzen. Dieses Risiko ergibt sich aus zwei der beliebtesten Anwendungsfälle für genAI im Unternehmen:

                                      • Zusammenfassung: GenAI-Apps zeichnen sich durch die Zusammenfassung großer Dokumente, großer Datensätze und Quellcodes aus, was das Risiko birgt, dass Einzelpersonen vertrauliche Daten zur Zusammenfassung an genAI-Apps senden.
                                      • Generation: GenAI-Apps zeichnen sich durch die Generierung von Texten, Bildern, Videos und Quellcode aus, was das Risiko birgt, dass Personen, die an sensiblen Projekten arbeiten, sensible Daten an genAI-Apps weitergeben, um Inhalte zu generieren oder zu verbessern.

                                      Die Hauptquelle für die Datenrisiken im Zusammenhang mit ihrer Verwendung besteht darin, dass die Anwendungsfälle für Zusammenfassung und Generierung erfordern, dass der Benutzer Daten an die genAI-Apps sendet, um einen Mehrwert zu schaffen. Zu diesen Risiken kommen weitere Faktoren hinzu, wie z. B. die Anzahl der Apps auf dem Markt und die Verbreitung von genAI-Apps als Schatten-IT innerhalb des Unternehmens, auf die wir später in diesem Bericht näher eingehen werden. Unternehmen, die Netskope zum Schutz ihrer sensiblen Daten verwenden, sind in der Regel mit vier verschiedenen Arten von sensiblen Daten befasst, die in genAI-Apps fließen:

                                      • Geistiges Eigentum: Geistiges Eigentum wird an genAI-Apps weitergegeben, wenn Benutzer versuchen, Kundenlisten, Verträge und andere Dokumente zu analysieren, die Geschäftsgeheimnisse oder vertrauliche Daten enthalten, die ein Unternehmen schützen möchte.
                                      • Passwörter und Schlüssel: Passwörter und Schlüssel werden oft an genAI-Apps weitergegeben, wenn sie in Code-Snippets eingebettet sind.
                                      • Regulierte Daten: Zu den regulierten Daten gehören hochsensible persönliche, Gesundheits- und Finanzdaten, die am häufigsten an genAI-Apps in Sektoren weitergegeben werden, die mit solchen Daten arbeiten, insbesondere im Gesundheitswesen und bei Finanzdienstleistungen.
                                      • Quellcode: Ein beliebter Anwendungsfall für genAI-Apps ist die Zusammenfassung, Generierung oder Bearbeitung von Quellcode, was dazu führt, dass Benutzer versehentlich vertraulichen Quellcode an nicht genehmigte Apps weitergeben.

                                      Die folgende Abbildung zeigt, wie häufig diese fünf Arten von Daten unter Verstoß gegen die Unternehmensrichtlinien an genAI-Apps gesendet werden, wobei fast die Hälfte aller Verstöße auf den Quellcode entfällt, gefolgt von regulierten Daten, geistigem Eigentum sowie Passwörtern und Schlüsseln. Der Rest dieses Berichts richtet sich an Sicherheitsverantwortliche in Unternehmen, die mit solchen sensiblen Daten zu tun haben. Wie kann ein Unternehmen seine sensibelsten Daten vor unerwünschter Offenlegung schützen und gleichzeitig seinen Benutzern die Nutzung von genAI-Apps ermöglichen?

                                      Cloud- und Bedrohungsbericht – Generative KI 2025 – Art der Verstöße gegen die Datenrichtlinie für genAI-Apps

                                       

                                      Generative KI überall Link Link

                                      Generative KI ist überall. Im Jahr 2022 stellte sich vor allem die Frage, ob die Vorteile der Zulassung von ChatGPT die Risiken überwiegen. Heute verfolgt Netskope 317 genAI-Apps, die jeweils eine etwas nuanciertere Reihe von Fragen aufwerfen: Welche Apps sollten wir zulassen und welche Kontrollen sollten wir einrichten, um die Datensicherheitsrisiken für diese Apps zu mindern? Die folgende Abbildung schlüsselt den Prozentsatz der Organisationen auf, die jede der 10 wichtigsten genAI-Apps verwenden, und unterstreicht, dass die meisten Unternehmen beschlossen haben, mehrere genAI-Apps zuzulassen.

                                      Cloud- und Bedrohungsbericht – Generative KI 2025 – Die beliebtesten genAI-Apps basierend auf dem Prozentsatz der Organisationen, die diese Apps verwenden

                                      Die folgende Abbildung zeigt die Beliebtheit derselben 10 Apps im vergangenen Jahr und verdeutlicht die sich schnell verändernde KI-Landschaft und wie viele Unternehmen solche Entscheidungen aktiv treffen. Sogar Apps, die allgemein als allgegenwärtig gelten, wie ChatGPT, werden erst jetzt zum ersten Mal in einigen Unternehmen eingeführt. Neueinsteiger wie Microsoft 365 Copilot befinden sich derzeit in der Phase der schnellen Einführung, ähnlich wie Microsoft Copilot Anfang 2024. Andere, wie Google Gemini, Anthropic Claude, GitHub Copilot und Gamma, werden nach und nach in neuen Organisationen eingeführt. Google Gemini schließt langsam die Lücke zu ChatGPT.

                                      Cloud- und Bedrohungsbericht – Generative KI 2025 – Beliebteste Apps nach Prozentsatz der Unternehmen

                                      Zusätzlich zu den Entscheidungen, die Unternehmen über Hunderte von genAI-Apps treffen müssen, müssen Unternehmen auch die Hunderte von zusätzlichen Apps berücksichtigen, die jetzt genAI-gestützte Funktionen bieten. Beispiele für solche Apps sind:

                                      • Gerne: Eine Customer-Experience-Plattform, die KI nutzt, um die Kundenkommunikation zu optimieren.
                                      • Eingeweihte: Eine Wachstumsmanagement-Plattform, die KI nutzt, um Kundendaten zu analysieren und granulare Nachrichten zu optimieren.
                                      • Gitter: HR-Software, die KI verwendet, um Mitarbeiterdaten zusammenzufassen, Schreibhilfe anzubieten und benutzerdefinierte Onboarding-Videos zu erstellen, die auf neue Mitarbeiter zugeschnitten sind.
                                      • LinkedIn: Ein soziales Netzwerk, das genAI verwendet, um seine Nutzer bei der Erstellung von Inhalten (Beiträge, Profile, Stellenbeschreibungen usw.) zu unterstützen und Nutzerdaten zu nutzen, um neue Modelle zu trainieren.
                                      • Moveworks: Eine IT-Support-Plattform, die KI für die Aufgabenautomatisierung, den Informationsabruf, mehrsprachigen Support und die KI-gesteuerte Workflow-Optimierung in allen Geschäftssystemen einsetzt.

                                      Die folgende Abbildung zeigt, dass die meisten Unternehmen genAI heute in irgendeiner Weise einsetzen.

                                      • 90 % der Unternehmen haben Nutzer, die direkt auf genAI-Apps wie ChatGPT, Google Gemini und GitHub Copilot zugreifen.
                                      • 98 % der Unternehmen haben Benutzer, die auf Apps zugreifen, die genAI-gestützte Funktionen bieten, wie Gladly, Insider, Lattice, LinkedIn und Moveworks.

                                      Cloud- und Bedrohungsbericht – Generative KI 2025 – Prozentsatz der Organisationen

                                      Auf der Benutzerebene sind diese Unterschiede noch ausgeprägter. Obwohl die meisten Unternehmen genAI-Apps direkt verwenden, ist die Anzahl der Benutzer in diesen Organisationen immer noch relativ klein (4,9 % der Benutzer). Auf der anderen Seite sind Apps, die genAI-gestützte Funktionen enthalten, viel häufiger (75 % der Nutzer).

                                      Cloud- und Bedrohungsbericht - Generative KI 2025 - Durchschnittlicher Prozentsatz der Nutzer

                                      Mit den beiden vorangegangenen Abbildungen soll unterstrichen werden, dass der Einsatz von genAI im Unternehmen noch weiter verbreitet ist, als es auf den ersten Blick erscheinen mag. Apps, die indirekt genAI-Funktionen enthalten, bergen die gleichen Risiken wie genAI-Apps. Um einen umfassenden Einblick in generative KI-Risiken zu bieten, bietet Netskope den Cloud Confidence Index, der diese und viele andere Attribute für mehr als 82.000 Cloud-Anwendungen verfolgt.

                                       

                                      Generative KI auf dem Vormarsch Link Link

                                      Die Einführung generativer KI nimmt in Unternehmen nach vielen verschiedenen Maßstäben zu. Dennoch ist keines der Daten aus Sicht der Datensicherheit so wichtig wie die Menge der Daten, die an genAI-Apps gesendet werden: Jeder Beitrag oder Upload ist eine Gelegenheit zur Offenlegung von Daten. In diesem Abschnitt wird hervorgehoben, dass die Menge der Daten, die an genAI-Apps gesendet werden, im vergangenen Jahr um mehr als das 30-fache gestiegen ist. Das ist das 30-fache der Anzahl von Posts und Uploads und 30-mal so viele Möglichkeiten für die Offenlegung sensibler Daten wie noch vor einem Jahr. Darüber hinaus gehen wir davon aus, dass das Datenvolumen, das in genAI-Apps fließt, im Jahr 2025 in ähnlichem Maße weiter zunehmen wird.

                                      Das Wachstum der Datenmenge, die an genAI-Apps gesendet wird, übertrifft bei weitem den Anstieg der Anzahl der genAI-Nutzer und der Anzahl der genAI-Apps. Während die Nutzerbasis für genAI-Apps auf absehbare Zeit relativ klein bleiben wird, werden die Datenrisiken dramatisch zunehmen, wenn die Nutzung von genAI in dieser Bevölkerung zunimmt. Der Rest dieses Abschnitts bietet detailliertere Einblicke in das gestiegene Datenvolumen, die Benutzeranzahl und die Anzahl der Apps, die wir im vergangenen Jahr beobachtet haben.

                                      Datenvolumen

                                      Obwohl die Population der genAI-Benutzer im Verhältnis zur Gesamtbevölkerung des Unternehmens recht klein ist, nimmt die Datenmenge, die diese Benutzer an genAI-Apps senden, rapide zu. Im vergangenen Jahr ist die durchschnittliche Datenmenge, die jeden Monat an genAI-Apps gesendet wird (hauptsächlich in Eingabeaufforderungen und Uploads), von nur 250 MB pro Monat auf 7,7 GB um mehr als das 30-fache gestiegen. Die besten 25 % der Unternehmen verzeichneten einen ähnlichen Anstieg von mehr als 790 MB pro Monat auf mehr als 20 GB pro Monat. Der rasante Anstieg des Datenvolumens, das an genAI-Apps gesendet wird, erhöht das Datensicherheitsrisiko erheblich. Mehr Daten bedeuten ein höheres Potenzial für vertrauliche Informationen, die von diesen Apps offengelegt oder falsch gehandhabt werden können. Wir gehen davon aus, dass bis Ende 2025 durchschnittlich mehr als 15 GB pro Monat an genAI-Apps gesendet werden.

                                      Cloud- und Bedrohungsbericht – Generative KI 2025 – An genAI-Apps gesendete Daten pro Organisation Mittleres Datenvolumen mit schattiertem Bereich im 1. und 3. Quartil

                                      Anzahl der Benutzer

                                      Während die meisten Unternehmen genAI verwenden, nutzt ein kleiner, aber stetig wachsender Prozentsatz der Nutzer genAI Apps aktiv. Die Zahl der Personen, die genAI-Apps im Unternehmen nutzen, hat sich im vergangenen Jahr fast verdoppelt, wobei durchschnittlich 4,9 % der Personen in jedem Unternehmen genAI-Apps verwenden, wie in der folgenden Abbildung zu sehen ist. Aktive Nutzung im Kontext von genAI bedeutet das Senden von Eingabeaufforderungen an Chatbots oder die anderweitige sinnvolle Interaktion mit der App. In den oberen 25 % der Unternehmen nutzen mindestens 17 % der Nutzer aktiv genAI-Apps, während in den oberen 10 % mehr als ein Drittel (35 %) der Nutzer genAI-Apps aktiv nutzen. Wir gehen davon aus, dass sich dieser Trend im Jahr 2025 fortsetzen wird.

                                      Cloud- und Bedrohungsbericht - Generative KI 2025 - GenAI-Nutzer pro Monat mittlerer Prozentsatz mit schattiertem Bereich im 1. und 3. Quartil

                                      Anzahl der Apps

                                      Die Anzahl der genAI-Apps, die jedes Unternehmen verwendet, steigt allmählich an, und es sind jetzt durchschnittlich fast sechs verschiedene genAI-Apps im Einsatz. Die besten 25 % der Unternehmen verwenden mindestens 13 Apps, und die oberen 1 % (nicht abgebildet) verwenden mindestens 40. Da Netskope insgesamt 317 verschiedene KI-Apps verfolgt und weiterhin aggressiv in KI-Startups investiert wird, gehen wir davon aus, dass die Anzahl der Apps, die jedes Unternehmen verwendet, im Jahr 2025 weiter steigen wird. Der Anstieg der Anzahl von Apps unterstreicht, wie wichtig es ist, Kontrollen zu implementieren, um die mit neuen Apps verbundenen Risiken zu begrenzen. Später in diesem Bericht stellen wir eine detaillierte Fallstudie von DeepSeek-R1 zur Verfügung, um zu zeigen, wie verschiedene Unternehmen auf die schnelle Einführung des neuen Chatbots reagiert haben.

                                      Cloud- und Bedrohungsbericht – Generative KI 2025 – GenAI-Apps pro Organisation Median mit schattiertem Bereich mit 1. und 3. Quartil

                                       

                                      Schatten-IT/Schatten-KI Link Link

                                      Die Einführung von GenAI-Apps in Unternehmen folgt dem typischen Muster neuer Cloud-Dienste: Einzelne Benutzer verwenden persönliche Konten, um auf die App zuzugreifen. Das Ergebnis ist, dass der Großteil der Nutzung von genAI-Apps im Unternehmen als Schatten-IT eingestuft werden kann, ein Begriff, der verwendet wird, um Lösungen zu beschreiben, die ohne das Wissen oder die Zustimmung der IT-Abteilung verwendet werden. Ein neuerer Begriff, Schatten-KI, wurde speziell für den Spezialfall von KI-Lösungen geprägt. Der Begriff "Schatten" in Schatten-IT und Schatten-KI soll die Idee hervorrufen, dass die Apps versteckt, inoffiziell und außerhalb der Standardprozesse arbeiten. Auch heute, mehr als zwei Jahre nachdem die Veröffentlichung von ChatGPT den genAI-Wahnsinn ausgelöst hat, verwendet die Mehrheit (72 %) der genAI-Nutzer immer noch persönliche Konten, um am Arbeitsplatz auf ChatGPT, Google Gemini, Grammarly und andere beliebte genAI-Apps zuzugreifen.

                                      Die folgende Abbildung zeigt, wie viele Personen im vergangenen Jahr persönliche genAI-Konten bei der Arbeit verwendet haben. Diese Zahl ist allmählich von 82 % vor einem Jahr auf heute 72 % gesunken. Dies ist zwar ein ermutigender Trend, aber es ist noch ein langer Weg, bis die meisten Benutzer zu Konten gewechselt sind, die von ihrer Organisation verwaltet werden. Beim derzeitigen Tempo werden die meisten Nutzer bis 2026 noch persönliche Konten verwenden. Ein kleiner Teil der Benutzer (5,4 %) verwendet eine Kombination aus persönlichen Konten und von der Organisation verwalteten Konten, was darauf hindeutet, dass selbst in Organisationen, in denen unternehmensverwaltete Apps vorhanden sind, viele Benutzer immer noch persönliche Konten verwenden.

                                      Cloud- und Bedrohungsbericht – Generative KI 2025 – Aufschlüsselung der GenAI-Nutzung nach persönlichen und organisatorischen Konten

                                      Da die meisten genAI-Nutzer persönliche Konten verwenden, unterscheidet sich die Verteilung der Verstöße gegen die Datenrichtlinie für persönliche Konten nicht wesentlich von der breiteren Verteilung. Die folgende Abbildung zeigt die Verteilung, wobei Verstöße gegen den Quellcode am häufigsten vorkommen, gefolgt von regulierten Daten, geistigem Eigentum sowie Passwörtern und Schlüsseln.

                                      Cloud- und Bedrohungsbericht – Generative KI 2025 – Art von Verstößen gegen die Datenrichtlinie für persönliche genAI-Apps

                                       

                                      DeepSeek: Eine Fallstudie zur frühen Einführung generativer KI Link Link

                                      Am 20. Januar 2025 hat das chinesische Unternehmen DeepSeek seinen ersten Chatbot auf Basis seines Modells DeepSeek-R1 veröffentlicht. DeepSeek gibt an, das Modell mit deutlich geringeren Kosten als OpenAI-o1 und mit wesentlich weniger Rechenleistung als Llama-3.1 trainiert zu haben. Diese Behauptungen warfen die Frage auf, ob es nun eine niedrigere Eintrittsbarriere im Bereich der genAI gibt, ob DeepSeek-R1 die genAI-Innovation beschleunigen und ob DeepSeek-R1 die Wettbewerbslandschaft stören wird. Diese Fragen führten zu einem erheblichen Medienecho und weckten das Interesse von genAI-Enthusiasten weltweit.

                                      Die folgende Abbildung zeigt den Prozentsatz der Organisationen, in denen Personen DeepSeek in den Wochen nach der Veröffentlichung von DeepSeek-R1 verwendet oder versucht haben, DeepSeek zu verwenden. Zu Spitzenzeiten hatten 91 % der Unternehmen weltweit Benutzer, die versuchten, auf DeepSeek zuzugreifen, wobei 75 % den gesamten Zugriff blockierten, 8 % granulare Zugriffskontrollrichtlinien verwendeten und 8 % den gesamten Zugriff erlaubten. Die 75 % der Unternehmen, die den Zugriff blockierten, verfügten über präventive Richtlinien zum Blockieren von genAI-Apps, die von der Sicherheitsorganisation nicht genehmigt worden waren. Präventive Blockierungsrichtlinien haben die Datensicherheitsrisiken neuer Benutzer, die DeepSeek ausprobieren, erfolgreich gemindert. In den folgenden Wochen ließ das Interesse nach, und der Prozentsatz der Unternehmen mit DeepSeek-Benutzern ging von Woche zu Woche zurück.

                                      Cloud- und Bedrohungsbericht – Generative KI 2025 – Prozentsatz der Organisationen mit DeepSeek-Benutzern pro Woche

                                      Die folgende Abbildung zeigt eine noch detailliertere Ansicht, in der die tägliche Anzahl der Benutzer auf der gesamten Plattform betrachtet und aufgeschlüsselt wird, wer blockiert und zugelassen wurde. Zu Spitzenzeiten versuchten 0,16 % der Benutzer in einem durchschnittlichen Unternehmen, DeepSeek zu verwenden, und wurden blockiert, während 0,002 % der Benutzer zugelassen wurden. Nach dem anfänglichen Höhepunkt ging die Anzahl der Benutzer, die versuchten, DeepSeek zu verwenden, zurück, da das Interesse nachließ und die Benutzer ihr Verhalten als Reaktion auf die Blöcke änderten.

                                      Das Diagramm zeigt auch, dass zwar 91 % der Unternehmen Benutzer hatten, die versuchten, DeepSeek zu verwenden, die Gesamtbenutzerpopulation jedoch recht klein war. Eine begrenzte frühe Einführung ist typisch für neue Technologien. Die geringe Anzahl von Early Adopters bedeutet, dass die Risiken der Einführung von präventiven Blockrichtlinien nur geringe negative Auswirkungen auf das Geschäft haben werden.

                                      Cloud- und Bedrohungsbericht – Generative KI 2025 – Durchschnittlicher Prozentsatz der Personen, die DeepSeek nutzen

                                      Diese DeepSeek-Fallstudie enthält wichtige Erkenntnisse für Unternehmen, die ihre Datensicherheitsrisiken im Zusammenhang mit neu veröffentlichten KI-Apps reduzieren möchten:

                                      • Early Adopters von neuen genAI-Apps sind in fast jedem (91 %) Unternehmen vorhanden. Early Adopters stellen ein erhebliches Sicherheitsrisiko dar, wenn sie sensible Daten an diese Apps senden.
                                      • Die meisten Unternehmen haben für neue genAI-Apps eine "Erst blockieren und dann Fragen stellen"-Richtlinie eingeführt. Anstatt neue Apps zu blockieren, die ihre Benutzer ausprobieren könnten, lassen sie bestimmte Apps explizit zu und blockieren alle anderen. Diese Art von Richtlinie eignet sich hervorragend zur Risikominderung, da sie dem Unternehmen Einblick gibt, wer die App ausprobiert, und ihm Zeit gibt, eine ordnungsgemäße Überprüfung durchzuführen. Da die Grundgesamtheit der Early Adopters winzig ist, halten sich die potenziellen negativen Auswirkungen auf das Unternehmen in Grenzen.

                                       

                                      Lokale generative KI-Einführung Link Link

                                      Eine Möglichkeit, die durch Cloud-basierte genAI-Apps verursachten Datenrisiken zu managen, besteht darin, die genAI-Infrastruktur lokal zu betreiben. Die lokale Ausführung wird immer zugänglicher, ermöglicht durch Organisationen wie DeepSeek und Meta , die ihre Modelle zum Download zur Verfügung gestellt haben, durch Tools wie Ollama und LM Studio , die Tools bereitstellen, um die lokale Ausführung von Modellen zu ermöglichen, und Communities wie Hugging Face , die den Austausch von Modellen und Daten erleichtern. Einige Unternehmen trainieren sogar ihre eigenen Modelle, verwenden Retrieval Augmented Generation (RAG), um genAI und Information Retrieval zu kombinieren, oder bauen ihre eigenen Tools auf bestehenden Modellen auf.

                                      Im vergangenen Jahr ist die Zahl der Unternehmen, die eine genAI-Infrastruktur lokal betreiben, drastisch gestiegen, von weniger als 1 % auf 54 %. Der größte Teil des Wachstums fand in der ersten Hälfte des Jahres 2024 statt und hat sich seitdem eingependelt. Wir gehen davon aus, dass sich dieser Trend mit nur moderaten Zuwächsen im kommenden Jahr fortsetzen wird. Wie erwartet ist die Nutzerpopulation, die eine lokale genAI-Infrastruktur betreibt, mit durchschnittlich weniger als 0,1 % der Nutzer recht klein. In dieser Benutzergruppe ist Ollama das beliebteste Tool, um das lokale Ausführen von Modellen zu ermöglichen, und Hugging Face ist der beliebteste Ort zum Herunterladen von Modellen, Tools und anderen Ressourcen.

                                      Cloud- und Bedrohungsbericht - Generative KI 2025 - Unternehmen, die genAI lokal einsetzen

                                      Die Umstellung von der Verwendung von genAI-Apps auf lokale genAI-Modelle verändert die Risikolandschaft und bringt mehrere zusätzliche Risiken mit sich. Die OWASP Top 10 for Large Language Model Applications bieten einen Rahmen, um über solche Risiken nachzudenken, darunter:

                                      • Lieferkette: Können Sie allen Tools und Modellen vertrauen, die Sie verwenden?
                                      • Datenlecks: Gibt Ihr System vertrauliche Informationen aus dem Training, verbundenen Datenquellen oder anderen Benutzern preis?
                                      • Unsachgemäße Behandlung der Ausgabe: Gibt es Systeme, die genAI-Ausgaben verarbeiten, tun dies sicher?

                                      Mitre Atlas ist ein weiteres Framework zur Berücksichtigung von KI-Risiken. Es bietet einen detaillierten Überblick über Angriffe auf KI-Systeme. Diejenigen, die selbstverwaltete genAI-Systeme betreiben, müssen auch diese Angriffe in Betracht ziehen, darunter:

                                      • Sofortige Injektion: Können Angreifer Eingabeaufforderungen erstellen, um das Modell dazu zu bringen, unerwünschte Ausgaben auszugeben?
                                      • Jailbreaks: Können Angreifer Kontrollen, Beschränkungen und Leitplanken umgehen?
                                        Meta-Prompt-Extraktion: Können Angreifer Details über das Innenleben des Systems preisgeben?

                                      Mit anderen Worten: Der Wechsel von Cloud-basierten genAI-Apps zu lokal gehosteten genAI-Modellen verringert das Risiko einer unerwünschten Datenoffenlegung gegenüber Dritten, birgt aber mehrere zusätzliche Risiken. Das Training eigener Modelle oder der Einsatz von RAG erhöht diese Risiken weiter. Was wir bisher sehen, ist jedoch kein Trend weg von der Nutzung von Cloud-Diensten. Wie wir bereits in diesem Bericht hervorgehoben haben, nimmt die Anzahl der Personen, die genAI Cloud-Apps verwenden, die Anzahl der verwendeten Apps und die Menge der Daten, die an diese Apps gesendet werden, zu. Stattdessen sehen wir die Hinzufügung einer lokal gehosteten genAI-Infrastruktur zusätzlich zu den Cloud-basierten genAI-Apps, die bereits im Einsatz sind. Das lokale Hosting von genAI-Modellen stellt ein additives Risiko dar.

                                       

                                      Risikominderung bei generativer KI Link Link

                                      Mehr als 99 % der Unternehmen setzen Richtlinien durch, um die mit genAI-Apps verbundenen Risiken zu reduzieren. Zu diesen Richtlinien gehören das Blockieren aller oder der meisten genAI-Apps für alle Benutzer, das Steuern, welche spezifischen Benutzergruppen genAI-Apps verwenden können, und die Kontrolle der Daten, die in genAI-Apps zugelassen sind. In den folgenden Abschnitten werden die einzelnen Richtlinien aufgeschlüsselt, die am beliebtesten sind.

                                      Blockierend

                                      Das Blockieren ist die einfachste Strategie zur Risikominderung und daher die beliebteste. Die Herausforderung beim Blockieren ist zweifach. Erstens kann sich das Blockieren auf das Unternehmen auswirken, indem es die Produktivität der Benutzer einschränkt. Zweitens kann das Blockieren die Nutzer dazu bringen, kreativ zu werden, z. B. indem sie persönliche Geräte oder persönliche Mobilfunknetze verwenden, um Sperren zu umgehen. Während 83 % der Unternehmen Blockierungsrichtlinien für einige Apps verwenden, ist der Geltungsbereich dieser Richtlinien zielgerichtet. Die folgende Abbildung zeigt, dass die Anzahl der aktiv blockierten Apps (d. h. es gibt eine Richtlinie zum Blockieren der App und Benutzer versuchen, die App trotzdem zu verwenden) in der gesamten Organisation (d. h. niemand in der Organisation darf sie verwenden) in der gesamten Organisation allmählich zunimmt, wobei heute durchschnittlich vier Apps blockiert werden. Die oberen 25 % der Unternehmen blockieren mindestens 20 Apps, während die oberen 1 % (nicht abgebildet) mehr als 100 Apps blockieren.

                                      Cloud- und Bedrohungsbericht – Generative KI 2025 – Anzahl der pro Organisation blockierten Apps Median mit schattiertem Bereich im 1. und 3. Quartil

                                      Die Aufschlüsselung der 10 am häufigsten blockierten Apps in der folgenden Abbildung gibt einen Einblick in unternehmensweite Blockierungsstrategien. Die beliebtesten Apps (ChatGPT, Gemini, Copilot) erscheinen nicht auf dieser Liste, und die Apps, die auf dieser Liste erscheinen, haben viele Alternativen auf dem Markt. In den Fällen, in denen es viele Alternativen gibt, verwenden Organisationen Blockierungsrichtlinien, um ihre Benutzer zu bestimmten genehmigten Apps und weg von nicht genehmigten Apps zu leiten. In einigen Fällen, wie z. B. bei Stable Diffusion (einem Bildgenerator), dient die App möglicherweise keinem legitimen Geschäftszweck.

                                      Cloud- und Bedrohungsbericht – Generative KI 2025 – Die am meisten blockierten KI-Apps nach Prozentsatz der Organisationen, die ein generelles Verbot der App erlassen

                                      Benutzercoaching in Echtzeit

                                      Im vorherigen Abschnitt wurde diese Vorstellung erwähnt, Benutzer von bestimmten Apps weg und hin zu anderen mit Blockierungsrichtlinien zu lenken. Echtzeit-Benutzercoaching bietet eine nuanciertere Alternative zur Blockierungsrichtlinie, die Benutzer daran erinnern kann, dass eine bestimmte App nicht für den Umgang mit sensiblen Daten zugelassen ist, es dem Endbenutzer jedoch ermöglicht, zu entscheiden, ob er sie verwenden möchte oder nicht. Echtzeit-Benutzercoaching ist effektiv, weil es den Benutzer befähigt, im Moment die richtige Entscheidung zu treffen. Es hilft auch, das Benutzerverhalten zu beeinflussen, indem es unmittelbares Feedback und Anleitungen bietet.

                                      Coaching, eine nuanciertere Politik als das Blockieren, ist weniger verbreitet, nimmt aber immer noch zu. 35 % der Unternehmen nutzen Echtzeit-Coaching, um genAI-Risiken zu reduzieren. Wir gehen davon aus, dass dieser Anteil im kommenden Jahr auf mehr als 40 % steigen wird. Unternehmen kombinieren Coaching häufig mit anderen Richtlinien, z. B. Richtlinien zur Verhinderung von Datenverlust.

                                      Cloud- und Bedrohungsbericht – Generative KI 2025 – Prozentsatz der Unternehmen, die Echtzeit-Benutzer-Coaching nutzen, um den Zugriff auf genAI-Anwendungen zu kontrollieren

                                      Data Loss Prevention

                                      Data Loss Prevention (DLP) reduziert die mit genAI-Apps verbundenen Risiken, indem Eingabeaufforderungen und Daten, die an genAI-Apps gesendet werden, in Echtzeit überprüft werden. DLP kann auf der Grundlage von Regeln, die von Administratoren konfiguriert wurden, entscheiden, ob der Inhalt zugelassen oder blockiert werden soll. Geistiges Eigentum, Geheimnisse, regulierte Daten und Quellcode sind die vier häufigsten Arten von Daten, die Unternehmen nicht mit genAI-Apps teilen dürfen. Die unten abgebildeten DLP-Richtlinien für genAI haben zu Beginn des Jahres 2025 an Popularität gewonnen und sich in letzter Zeit eingependelt, wobei 47 % der Unternehmen DLP verwenden, um den Zugriff auf genAI-Apps zu kontrollieren.

                                      Cloud- und Bedrohungsbericht – Generative KI 2025 – Prozentsatz der Unternehmen, die DLP verwenden, um den Zugriff auf genAI-Anwendungen zu kontrollieren

                                       

                                      Eine CISO-Perspektive Link Link

                                      CISOs und Sicherheitsverantwortliche, die dies lesen, sollten sich große Sorgen über die Datensicherheitsrisiken machen, die mit dem rasant wachsenden Einsatz von genAI-Technologien verbunden sind. Cloud-basierte genAI-Apps und lokal gehostete genAI-Modelle bergen ein wachsendes Risiko der unerwünschten Datenoffenlegung und einer Reihe neuer Sicherheitslücken.

                                      Unternehmen müssen sofort Maßnahmen ergreifen, um diese Risiken effektiv zu managen. Ich ermutige Führungskräfte, das NIST AI Risk Management Framework zu überprüfen, das eine wertvolle Roadmap für Unternehmen bietet, um genAI-Risiken zu steuern, abzubilden, zu messen und zu managen.

                                      Zu den spezifischen Schritten, die Organisationen ausführen können, gehören die folgenden:

                                      1. Bewerten Sie Ihre genAI-Landschaft: Verstehen Sie, welche genAI-Apps und lokal gehostete genAI-Infrastruktur Sie verwenden, wer sie verwendet und wie sie verwendet werden.
                                      2. Stärken Sie Ihre genAI-App-Steuerelemente: Überprüfen Sie Ihre Kontrollen regelmäßig und vergleichen Sie sie mit Best Practices, z. B. das Zulassen nur genehmigter Apps, das Blockieren nicht genehmigter Apps, die Verwendung von DLP, um zu verhindern, dass vertrauliche Daten mit nicht autorisierten Apps geteilt werden, und die Nutzung von Echtzeit-Benutzercoaching.
                                      3. Inventarisieren Sie Ihre lokalen Kontrollen: Wenn Sie eine genAI-Infrastruktur lokal ausführen, überprüfen Sie relevante Frameworks wie die OWASP Top 10 for Large Language Model Applications, das NIST AI Risk Management Framework und den Mitre Atlas, um einen angemessenen Schutz von Daten, Benutzern und Netzwerken zu gewährleisten.
                                        Es ist von entscheidender Bedeutung, den Einsatz von genAI in Ihrem Unternehmen kontinuierlich zu überwachen und über neue Entwicklungen in der KI-Ethik, regulatorische Änderungen und gegnerische Angriffe auf dem Laufenden zu bleiben.

                                      Alle Cyber- und Risikoverantwortlichen sollten KI-Governance- und Risikoprogrammen Vorrang einräumen, um den sich entwickelnden Herausforderungen durch genAI-Technologien und deren Einführung durch Schatten-KI-Praktiken gerecht zu werden. Indem wir proaktive Schritte zum Management dieser Risiken unternehmen, können wir die sichere und verantwortungsvolle Einführung und Nutzung von genAI zum Nutzen Ihres Unternehmens gewährleisten.

                                       

                                      Netskope Threat Labs Link Link

                                      Netskope Threat Labs besteht aus den branchenweit führenden Forschern für Cloud-Bedrohungen und Malware, die Abwehrmaßnahmen gegen die neuesten Cloud-Bedrohungen entdecken, analysieren und entwickeln, die Unternehmen betreffen. Unsere Forscher sind regelmäßige Referenten und Freiwillige auf führenden Sicherheitskonferenzen, darunter DefCon, BlackHat und RSA.

                                       

                                      Über diesen Bericht Link Link

                                      Netskope bietet Millionen von Anwendern weltweit Schutz vor Bedrohungen. Die in diesem Bericht enthaltenen Informationen basieren auf anonymisierten Nutzungsdaten, die von der Netskope One-Plattform erfasst wurden und sich auf eine Untergruppe von Netskope-Kunden mit vorheriger Genehmigung beziehen.

                                      Dieser Bericht enthält Informationen zu Erkennungen, die von NetskopeNext Generation Secure Web Gateway (SWG) ausgelöst wurden, ohne die Bedeutung der Auswirkungen der einzelnen Bedrohungen zu berücksichtigen. Die Statistiken in diesem Bericht basieren auf dem Zeitraum vom 1. Februar 2024 bis zum 28. Februar 2025. Die Statistiken spiegeln die Taktiken von Angreifern, das Benutzerverhalten und die Unternehmensrichtlinien wider.

                                      Cloud- und Bedrohungsberichte

                                      The Netskope Cloud and Threat Report delivers unique insights into the adoption of cloud applications, changes in the cloud-enabled threat landscape, and the risks to enterprise data.

                                      Gewitter mit Blitzen über der Stadt in der Nacht
                                      Verbinden Sie sich mit Netskope

                                      Beschleunigen Sie Ihr Cloud-, Daten-, KI- und Netzwerksicherheitsprogramm mit Netskope