Report herunterladen: Wie CIOs und CEOs im KI-Zeitalter in Einklang kommen

Schließen
Schließen
Ihr Netzwerk von morgen
Ihr Netzwerk von morgen
Planen Sie Ihren Weg zu einem schnelleren, sichereren und widerstandsfähigeren Netzwerk, das auf die von Ihnen unterstützten Anwendungen und Benutzer zugeschnitten ist.
Erleben Sie Netskope
Machen Sie sich mit der Netskope-Plattform vertraut
Hier haben Sie die Chance, die Single-Cloud-Plattform Netskope One aus erster Hand zu erleben. Melden Sie sich für praktische Übungen zum Selbststudium an, nehmen Sie an monatlichen Live-Produktdemos teil, testen Sie Netskope Private Access kostenlos oder nehmen Sie an Live-Workshops teil, die von einem Kursleiter geleitet werden.
Ein führendes Unternehmen im Bereich SSE. Jetzt ein führender Anbieter von SASE.
Netskope wird als Leader mit der weitreichendsten Vision sowohl im Bereich SSE als auch bei SASE Plattformen anerkannt
2X als Leader im Gartner® Magic Quadrant für SASE-Plattformen ausgezeichnet
Eine einheitliche Plattform, die für Ihre Reise entwickelt wurde
Generative KI für Dummies sichern
Generative KI für Dummies sichern
Erfahren Sie, wie Ihr Unternehmen das innovative Potenzial generativer KI mit robusten Datensicherheitspraktiken in Einklang bringen kann.
Moderne Data Loss Prevention (DLP) für Dummies – E-Book
Moderne Data Loss Prevention (DLP) für Dummies
Hier finden Sie Tipps und Tricks für den Übergang zu einem cloudbasierten DLP.
Modernes SD-WAN für SASE Dummies-Buch
Modernes SD-WAN für SASE-Dummies
Hören Sie auf, mit Ihrer Netzwerkarchitektur Schritt zu halten
Verstehen, wo die Risiken liegen
Advanced Analytics verändert die Art und Weise, wie Sicherheitsteams datengestützte Erkenntnisse anwenden, um bessere Richtlinien zu implementieren. Mit Advanced Analytics können Sie Trends erkennen, sich auf Problembereiche konzentrieren und die Daten nutzen, um Maßnahmen zu ergreifen.
Technischer Support von Netskope
Technischer Support von Netskope
Überall auf der Welt sorgen unsere qualifizierten Support-Ingenieure mit verschiedensten Erfahrungen in den Bereichen Cloud-Sicherheit, Netzwerke, Virtualisierung, Content Delivery und Software-Entwicklung für zeitnahen und qualitativ hochwertigen technischen Support.
Netskope-Video
Netskope-Schulung
Netskope-Schulungen helfen Ihnen, ein Experte für Cloud-Sicherheit zu werden. Wir sind hier, um Ihnen zu helfen, Ihre digitale Transformation abzusichern und das Beste aus Ihrer Cloud, dem Web und Ihren privaten Anwendungen zu machen.

Dieser Bericht analysiert die wichtigsten Cybersicherheitsrisikotrends, die Organisationen weltweit betreffen. Es befasst sich mit der zunehmenden Nutzung von generativen KI-Werkzeugen (genAI) und den damit verbundenen Herausforderungen der Datensicherheit. Darüber hinaus hebt es die wachsende Zahl von Verstößen gegen Datenschutzrichtlinien hervor, bei denen sensible Informationen zunehmend durch nicht autorisierte Cloud-Dienste, persönliche Anwendungen und genAI-Plattformen unerlaubt nach außen dringen.

23 Minuten Lesezeit

Einführung Link Link

Die Ausgabe 2026 des Netskope Cloud and Threat Report analysiert die wichtigsten Cybersicherheitstrends des Vorjahres und bietet eine kritische Vorschau auf die Herausforderungen und Risiken, die die Unternehmenslandschaft im Jahr 2026 prägen werden. Im Jahr 2025 hat die rasante, oft unkontrollierte Verbreitung generativer KI die Cybersicherheitslandschaft grundlegend verändert. Während Unternehmen mit den komplexen Herausforderungen der Cloud-Datensicherheit, anhaltenden Phishing-Kampagnen und Malware, die über vertrauenswürdige Kanäle verbreitet wird, zu kämpfen haben, hat die Einführung des weitverbreiteten Einsatzes von KI – insbesondere von „Shadow AI“ und der aufkommenden „Agentic AI“ – New und komplexe Risiken der Datenoffenlegung in die moderne Unternehmensumgebung eingebracht. Dieser Bericht bietet einen Rückblick auf die wichtigsten Trends des Jahres 2025 und dient als kritische Vorschau auf die sich entwickelnde Bedrohungslandschaft für das Jahr 2026. Er hebt die additive Natur der Risiken hervor, mit denen sich Sicherheitsteams nun auseinandersetzen müssen. Die Sicherheitsteams müssen nicht nur weiterhin bestehende Risiken bewältigen, sondern nun auch die durch genAI entstehenden Risiken.

Das unmittelbarste Risiko speziell im Zusammenhang mit genAI ist der erhebliche Anstieg der Datenexposition, wobei sich die Rate der Verstöße gegen Datenschutzrichtlinien im Zusammenhang mit der Nutzung von genAI-Anwendungen im letzten Jahr verdoppelt hat. Diese beschleunigte Einführung wird häufig durch Schatten-KIvorangetrieben – die Nutzung unkontrollierter Dienste und persönlicher Konten durch Mitarbeiter – was zum Abfluss hochsensibler Daten führt, darunter Quellcode, regulierte Daten und geistiges Eigentum. Gleichzeitig schafft die operative Einführung agentenbasierter KI- Systeme, die komplexe, autonome Aktionen über interne und externe Ressourcen hinweg ausführen, eine riesige New Angriffsfläche, die eine grundlegende Neubewertung der Sicherheitsperimeter und Vertrauensmodelle erforderlich macht.

Diese Kombination aus neuartigen, KI-gesteuerten Bedrohungen und althergebrachten Sicherheitsbedenken prägt die sich entwickelnde Bedrohungslandschaft für das Jahr 2026. Da sich das Verhalten der Mitarbeiter und New KI-Tools schneller weiterentwickeln als traditionelle Schutzmaßnahmen, ist eine Stärkung der Aufsicht, der Kontrollen zur Verhinderung von Datenverlusten (DLP) und der allgemeinen Sicherheitslage unerlässlich.

In diesem Bericht Link Link

  • Die Nutzung von SaaS genAI nimmt rasant zu: Die Zahl der Nutzer von SaaS genAI-Apps wie ChatGPT und Gemini hat sich verdreifacht, während die Zahl der Anfragen, die Nutzer an die Apps senden, sich im letzten Jahr versechsfacht hat. Schatten-KI bleibt eine große Herausforderung, da 47 % der GenAI-Nutzer persönliche KI-Apps verwenden.
  • Verstöße gegen die Datenschutzrichtlinien von GenAI nehmen rapide zu: Mit der steigenden Popularität von GenAI-Apps hat sich die Zahl der Fälle, in denen Benutzer sensible Daten an KI-Apps senden, im vergangenen Jahr verdoppelt; durchschnittlich verzeichnet eine Organisation 223 solcher Vorfälle pro Monat.
  • Persönliche Apps stellen ein erhebliches Insider-Bedrohungsrisiko dar: 60 % der Insider-Bedrohungsvorfälle betreffen persönliche Cloud-App-Instanzen, wobei regulierte Daten, geistiges Eigentum, Quellcode und Zugangsdaten häufig an persönliche App-Instanzen gesendet werden, was gegen die Unternehmensrichtlinien verstößt.
  • Phishing bleibt eine anhaltende Herausforderung: Trotz eines Rückgangs der Anzahl der Klicks auf Phishing-Links im Vergleich zum Vorjahr ist Phishing immer noch ein hartnäckiges Problem. Jeden Monat klicken 87 von 10.000 Nutzern auf einen Phishing-Link, und Microsoft ist die am häufigsten imitierte Marke.
  • Malware dringt weiterhin über vertrauenswürdige Kanäle in Organisationen ein: Angreifer haben weiterhin Erfolg bei der Verbreitung von Malware an ihre Opfer über vertrauenswürdige Kanäle, darunter Software-Registries wie npm und beliebte Cloud-Anwendungen wie GitHub, OneDrive und Google Drive.

 

Die Nutzung von SaaS genAI nimmt rasant zu. Link Link

Im vergangenen Jahr hatten Unternehmen weiterhin Schwierigkeiten damit, wie Mitarbeiter generative KI-Tools einsetzen. Ähnlich wie in den Anfängen von SaaS und Cloud-Plattformen begannen viele Mitarbeiter, auf eigene Faust mit KI-Anwendungen zu experimentieren, in der Regel indem sie sich mit persönlichen Konten anmeldeten, lange bevor IT- oder Sicherheitsteams firmeneigene genAI-Tools für ihre Mitarbeiter einsetzten. Dieses Muster hat zur Entstehung dessen geführt, was heute allgemein als Schatten-KI bezeichnet wird – die Nutzung von KI, die außerhalb der organisatorischen Sichtbarkeit, Richtlinien und Kontrolle stattfindet.

Trotz der raschen Bemühungen um unternehmensweite Lizenzierungs- und Governance-Rahmenwerke ist der unregulierte Zugang immer noch weit verbreitet. Interne Beobachtungen in verschiedenen Organisationen zeigen, dass ein erheblicher Anteil der Mitarbeiter Tools wie ChatGPT, Google Gemini und Copilot mit Zugangsdaten nutzt, die nicht mit ihrer Organisation in Verbindung stehen. Die gute Nachricht ist, dass sich dieses Verhalten in die richtige Richtung entwickelt. Die Nutzung persönlicher Konten ist im vergangenen Jahr deutlich zurückgegangen, da der Anteil der KI-Nutzer, die persönliche KI-Apps verwenden, von 78 % auf 47 % gesunken ist. Parallel dazu ist der Anteil der Nutzer von organisationsverwalteten Konten von 25 % auf 62 % gestiegen, was darauf hindeutet, dass immer mehr Unternehmen den KI-Zugriff standardisieren und ihre Kontrollmechanismen verbessern. Allerdings gibt es eine zunehmende Überschneidung bei denjenigen, die zwischen privaten und geschäftlichen Konten hin und her wechseln; der Anteil der Nutzer steigt von 4 % auf 9 %. Diese Überschneidung zeigt, dass Unternehmen noch einiges zu tun haben, um den von den Nutzern gewünschten Komfort oder die gewünschten Funktionen zu bieten. Der Trend hin zu Managed Accounts ist ermutigend, verdeutlicht aber auch, wie schnell das Verhalten der Mitarbeiter die Unternehmensführung überholen kann. Organisationen, die das Risiko verringern wollen, benötigen klarere Richtlinien, eine bessere Bereitstellung von Ressourcen und einen kontinuierlichen Einblick in die tatsächliche Nutzung von KI-Tools innerhalb der Belegschaft.

Diagramm zur Aufschlüsselung der genAI-Nutzung nach persönlichen und organisatorischen Konten

Während der Wandel von persönlichen Konten hin zu organisationsverwalteten KI-Konten eine erfreuliche Entwicklung ist, stehen Organisationen auch vor einer anderen Herausforderung: Die Gesamtzahl der Personen, die SaaS-genAI-Anwendungen nutzen, wächst exponentiell und hat sich im Durchschnitt der Organisationen im vergangenen Jahr verdreifacht. Besonders bemerkenswert an diesem Trend ist, dass er trotz verstärkter Kontrollen und Regulierungen im Bereich verwalteter genAI-Anwendungen auftritt. Dies lässt darauf schließen, dass die Nachfrage der Mitarbeiter nach genAI-Funktionen und deren Abhängigkeit davon weiterhin schneller zunimmt, als organisatorische Schutzmechanismen implementiert werden können.

Diagramm mit Angabe des Medians der genAI-Nutzer pro Monat und des prozentualen Anteils, wobei der schattierte Bereich das 1. und 3. Quartil darstellt.

Während sich die Anzahl der Nutzer im Durchschnitt verdreifachte, wuchs die Menge der an SaaS-genAI-Apps gesendeten Daten um das Sechsfache, von 3.000 auf 18.000 Abfragen pro Monat. Die Top 25 % der Unternehmen versenden unterdessen mehr als 70.000 Erinnerungen pro Monat, und das Top 1 % (nicht abgebildet) versendet mehr als 1,4 Millionen Erinnerungen pro Monat. Im nächsten Abschnitt untersuchen wir die Risiken, die mit diesem zunehmenden Datenfluss in SaaS-genAI-Anwendungen einhergehen.

GenAI-Aufforderungen pro Organisation (Median), wobei der schattierte Bereich das 1. und 3. Quartil anzeigt.

Im Laufe des letzten Jahres haben sich mehrere genAI-Anwendungen in verschiedenen Regionen und Branchen als feste Größen etabliert. ChatGPT verzeichnete eine Nutzungsrate von 77 %, gefolgt von Google Gemini mit 69 %. Microsoft 365 Copilot erreichte eine Nutzungsrate von 52 %, was ein starkes Interesse an KI-Funktionen zeigt, die in alltägliche Arbeitsumgebungen integriert werden. Neben diesen führenden Tools nutzten die Organisationen auch in großem Umfang verschiedene spezialisierte und eingebettete KI-Anwendungen, die auf operative, analytische und workfloworientierte Bedürfnisse zugeschnitten waren.

Diagramm mit den beliebtesten genAI-Apps basierend auf dem Prozentsatz der Organisationen, die diese Apps nutzen

Die nachstehende Grafik zeigt, wie sich die Nutzung der wichtigsten genAI-Anwendungen im Laufe des letzten Jahres in verschiedenen Regionen und Branchen verändert hat. ChatGPT verzeichnete eine konstant hohe Nutzung mit einem Durchschnittswert von 77 % über das gesamte Jahr. Google Gemini verzeichnete einen starken Aufwärtstrend und stieg von 46 % auf 69 %, was auf einen wachsenden Trend von Unternehmen hinweist, die mehrere SaaS-genAI-Dienste mit sich überschneidenden Funktionen nutzen. Microsoft 365 Copilot erreichte eine Akzeptanzrate von 52 %, was durch die Integration in das Microsoft 365-Produktökosystem begünstigt wird. Auch die Perplexität verzeichnete ein stetiges Wachstum von 23 % auf 35 %, was wahrscheinlich auf die steigende Popularität des Comet-Browsers und seinen optimierten, suchorientierten KI-Workflow zurückzuführen ist. Bemerkenswerterweise gewann Grok, das zuvor zu den am häufigsten blockierten genAI-Anwendungen gehörte, im April an Bedeutung, wobei die Nutzung auf 28 % anstieg, da immer mehr Organisationen trotz früherer Einschränkungen mit seinen Möglichkeiten experimentierten.

Diagramm mit den beliebtesten Apps nach prozentualem Anteil der Organisationen

Die rasche und dezentrale Einführung generativer SaaS-KI-Tools wird die Cloud-Sicherheitslandschaft im Jahr 2026 grundlegend verändern. Wir erwarten zwei wesentliche Veränderungen: das anhaltende exponentielle Wachstum beim Einsatz von genAI in allen Geschäftsbereichen und die Ablösung von ChatGPT durch das Gemini-Ökosystem als beliebteste SaaS-genAI-Plattform. Bei der aktuellen Entwicklung dürfte Gemini ChatGPT in der ersten Hälfte des Jahres 2026 überholen, was den intensiven Wettbewerb und die rasante Innovation in diesem Bereich widerspiegelt. Organisationen werden Schwierigkeiten haben, die Datengovernance aufrechtzuerhalten, da sensible Informationen ungehindert in nicht genehmigte KI-Ökosysteme fließen, was zu einer Zunahme versehentlicher Datenoffenlegung und Compliance-Risiken führt. Angreifer hingegen werden diese fragmentierte Umgebung ausnutzen und mithilfe von KI hocheffiziente Aufklärung betreiben sowie hochgradig individualisierte Angriffe entwickeln, die auf proprietäre Modelle und Trainingsdaten abzielen. Die Notwendigkeit, KI-getriebene Innovation mit Sicherheit in Einklang zu bringen, erfordert einen Wandel hin zu KI-bewussten Datenschutzrichtlinien und einer zentralen Transparenzebene, die den Einsatz von genAI in allen SaaS-Anwendungen überwachen und steuern kann. Dadurch wird die Durchsetzung feingranularer, kontextbezogener Zugriffskontrollen und ethischer Leitplanken zu einer entscheidenden Sicherheitspriorität für das kommende Jahr.

 

Die Anzahl der Verstöße gegen die Datenrichtlinien von GenAI nimmt rapide zu. Link Link

Im vorangegangenen Abschnitt haben wir auf eine Verdreifachung der Anzahl der genAI-Nutzer und eine Versechsfachung der Anzahl der an SaaS-genAI-Anwendungen gesendeten Aufforderungen hingewiesen. Der Hauptgrund, warum dieser Trend für Cybersicherheitsexperten besorgniserregend sein sollte, ist, dass mit der zunehmenden Nutzung auch die Zahl unerwünschter Datenweitergaben an Dritte steigt. Dieses Risiko hat seinen Ursprung in der alltäglichen Art und Weise, wie diese Werkzeuge eingesetzt werden. Ob ein Benutzer ein KI-System bittet, Dokumente, Datensätze oder Code zusammenzufassen, oder ob er sich darauf verlässt, dass es Texte, Medien oder Software-Snippets generiert, der Workflow erfordert fast immer das Hochladen interner Daten auf einen externen Dienst oder die anderweitige Verbindung Ihrer internen Datenspeicher mit einer externen KI-Anwendung. Allein diese Anforderung birgt ein erhebliches Expositionsrisiko. In diesem Abschnitt untersuchen wir die Risiken der Offenlegung sensibler Daten, die mit einem so drastischen Anstieg der genAI-Nutzung einhergehen, und heben einen zweifachen Anstieg der Verstöße gegen die Datenschutzrichtlinien im gleichen Zeitraum hervor.

In einer durchschnittlichen Organisation haben sich sowohl die Anzahl der Benutzer, die gegen die Datenschutzrichtlinien verstoßen, als auch die Anzahl der Vorfälle im Zusammenhang mit den Datenschutzrichtlinien im vergangenen Jahr verdoppelt. Im Durchschnitt begehen 3 % der genAI-Benutzer monatlich durchschnittlich 223 Verstöße gegen die genAI-Datenrichtlinien. Unterdessen verzeichnen die Top 25 % der Organisationen durchschnittlich 2.100 Vorfälle pro Monat bei 13 % ihrer genAI-Nutzerbasis, was verdeutlicht, dass der Schweregrad des Problems von Organisation zu Organisation stark variiert.

Diese Diskrepanz – eine Verdopplung der Verstöße gegen die Datenschutzrichtlinien im Gegensatz zu einer Verdreifachung der genAI-Nutzer und einer Versechsfachung der Aufforderungen – offenbart eine kritische Lücke in der Sicherheitslage der Organisation. Die Verdopplung der Verstöße stellt nur die erfassten Vorfälle dar. Der im Verhältnis zur Nutzung geringere Anstieg der Verstöße verdeutlicht, dass viele Organisationen bei der Regulierung dieser Aktivität noch nicht die nötige Reife erreicht haben; ganze 50 % der Organisationen verfügen nicht über durchsetzbare Datenschutzrichtlinien für genAI-Anwendungen. In solchen Umgebungen senden Mitarbeiter möglicherweise unentdeckt sensible Daten an KI-Modelle, wodurch das wahre Ausmaß des Datenlecks verschleiert wird. Daher dürfte der beobachtete zweifache Anstieg eine Unterschätzung des tatsächlichen Risikos der Datenoffenlegung darstellen, was darauf schließen lässt, dass das Problem in der Mehrzahl der Organisationen, die sich noch immer auf das Vertrauen der Nutzer anstatt auf die technische Durchsetzung verlassen, gravierender ist. Solche Organisationen sollten dringend eine Stärkung ihrer Daten-Governance und die Implementierung durchsetzbarer, inhaltsbezogener Kontrollmechanismen in Betracht ziehen.

Diagramm mit den durchschnittlichen Uploads sensibler Daten in genAi-Apps (Median in Prozent, schattierter Bereich zeigt das 1. und 3. Quartil).

Die mit genAI verbundenen Risiken der Datenoffenlegung werden durch die große Anzahl verfügbarer KI-Tools und die anhaltende Präsenz von Schatten-KI-Tools, die ohne Genehmigung oder Aufsicht eingesetzt werden, noch verstärkt. Infolgedessen sehen sich Organisationen regelmäßig damit konfrontiert, dass verschiedene Kategorien sensibler Daten unter Verstoß gegen interne Richtlinien an genAI-Plattformen übertragen werden. Zu den häufigsten Datentypen gehören:

  • Quellcode, den Benutzer oft einreichen, wenn sie Hilfe beim Debuggen, Refactoring-Vorschläge oder Codegenerierung benötigen.
  • Regulierte Daten, wie z. B. personenbezogene Daten, Finanzdaten oder Gesundheitsdaten.
  • Geistiges Eigentum, einschließlich Verträgen, internen Dokumenten und firmeneigenen Forschungsergebnissen, die Mitarbeiter zur Analyse oder Zusammenfassung hochladen.
  • Passwörter und Schlüssel, die häufig in Codebeispielen oder Konfigurationsdateien vorkommen.

Die drei Kategorien von Daten, die im vergangenen Jahr am häufigsten von Verstößen gegen die Datenrichtlinien von genAI betroffen waren, waren Quellcode (42%), regulierte Daten (32%) und geistiges Eigentum (16%). Die zunehmende Häufigkeit solcher Vorfälle ist auf eine Vielzahl von Faktoren zurückzuführen, von der schnellen Einführung von genAI-Tools und deren tieferer Integration in die täglichen Arbeitsabläufe bis hin zu einem mangelnden Bewusstsein der Mitarbeiter für Datensicherheit bei der Verwendung von KI-Tools, die sie oft ohne Genehmigung oder Aufsicht der IT-/Sicherheitsabteilung einsetzen.

Die Kombination aus dem sprunghaften Anstieg von Verstößen gegen Datenschutzrichtlinien und der hohen Sensibilität der regelmäßig kompromittierten Daten sollte für Organisationen, die keine Initiativen zur Eindämmung von KI-Risiken ergriffen haben, ein Hauptanliegen sein. Ohne strengere Kontrollen steigt die Wahrscheinlichkeit von versehentlichen Leckagen, Verstößen gegen die Vorschriften und Gefährdungen in nachgelagerten Bereichen von Monat zu Monat weiter an.

Diagramm zur Darstellung der Arten von Datenschutzrichtlinienverstößen bei genAI-Apps

Über traditionelle genAI-Anwendungen hinaus stellen aufkommende Technologien wie KI-gestützte Browser und Anwendungen, die das Model Context Protocol (MCP) nutzen – das sich schnell zur bevorzugten Methode für die Verbindung von KI-Agenten mit Unternehmensressourcen entwickelt – zusätzliche potenzielle Risiken dar. Diese Tools können Aufgaben ausführen, auf lokale oder Cloud-Ressourcen zugreifen und im Namen des Benutzers mit anderer Software interagieren, wodurch die Angriffsfläche der Organisation effektiv erweitert wird. Da MCP-fähige Agenten Verbindungen zu externen Diensten oder Tools herstellen können, könnten sensible Informationen unbeabsichtigt offengelegt werden, und böswillige Akteure könnten diese Fähigkeiten ausnutzen, um Systeme oder Arbeitsabläufe zu kompromittieren. Auch ohne breite Akzeptanz sollten Organisationen KI-Browser und MCP-integrierte Systeme als aufkommende Problemfelder betrachten und entsprechende Governance-, Überwachungs- und Nutzungsrichtlinien implementieren.

Der Aufstieg von KI-Browsern und MCP-Servern im Jahr 2026 wird das bereits zunehmende Problem der Datenlecks im Bereich genAI noch verschärfen und mehr Organisationen dazu zwingen, sich eine bessere Transparenz und Kontrolle über den Einsatz von KI-Technologien zu verschaffen. Die zentrale Frage für Sicherheitsverantwortliche wird weiterhin sein, wie man sensible Daten schützen und gleichzeitig den Mitarbeitern ermöglichen kann, von genAI zu profitieren. Die Stärkung der DLP-Abdeckung, die Verbesserung des Bewusstseins der Mitarbeiter und die Durchsetzung klarer Richtlinien für den Umgang mit Daten werden für viele Organisationen vorrangige Schwerpunkte sein.

Das Blockieren unerwünschter genAI-Apps verringert das Risiko der Datenoffenlegung.

Im vorangegangenen Abschnitt ging es darum, wie inhaltsbezogene Datenschutzrichtlinien den Fluss sensibler Daten in genAI-Anwendungen kontrollieren können. Die zugrunde liegende Annahme war, dass diese Apps in bestimmten Kontexten sicher sein und einem legitimen Geschäftszweck dienen müssen. Wenn eine App in keinem Kontext sicher ist oder keinem legitimen Geschäftszweck dient, wird die Risikominderung viel einfacher: Man blockiert die App einfach komplett. 90 % der Organisationen nutzen diese einfache, aber effektive Strategie, wobei die durchschnittliche Organisation aktiv 10 Apps blockiert. Hierbei bedeutet „aktive Blockierung“ nicht nur, dass eine Organisation eine Richtlinie hat, die die App für alle ihre Benutzer blockiert, sondern dass die Richtlinie die Benutzer aktiv daran hindert, die App zu benutzen (im Gegensatz zu einer Richtlinie, die etwas blockiert, das sowieso niemand benutzt). Obwohl die Richtlinien der einzelnen Organisationen unterschiedlich sind, werden manche Tools weitaus häufiger eingeschränkt als andere, was zeigt, wo die Sicherheitsteams das größte Schadenspotenzial sehen. In vielen Umgebungen bietet die Blockierung ganzer Kategorien von risikoreichen genAI-Diensten möglicherweise einen besser handhabbaren Schutz als die Bewertung der einzelnen Tools.

ZeroGPT ist derzeit die am häufigsten blockierte Anwendung im Bereich genAI; 45 % der Organisationen beschränken den Zugriff. Viele Sicherheitsteams betrachten den Dienst als risikoreich, da KI-Erkennungstools häufig die Übermittlung von Volltexten, Quellcode oder anderem sensiblen Material zur Analyse verlangen.

DeepSeek folgt mit 43 % der Organisationen, die es blockieren. Gründe dafür sind Bedenken hinsichtlich begrenzter Transparenz, sich schnell entwickelndem Plattformverhalten, Datensouveränität und Unsicherheiten im Zusammenhang mit aufkommenden KI-Ökosystemen.

Diese blockierenden Trends deuten darauf hin, dass Organisationen nicht nur auf die Risiken einzelner Tools reagieren, sondern auch ihre Governance-Strategien weiterentwickeln. Der Schwerpunkt verlagert sich dahingehend, dass sensible Daten gar nicht erst das Unternehmen verlassen, insbesondere nicht an Dienste mit unklaren Sicherheitsgarantien oder unzureichender Offenlegung darüber, wie Benutzerinhalte verarbeitet und gespeichert werden.

""

Blockierungsrichtlinien für unerwünschte KI-Anwendungen haben sich im Allgemeinen als sehr effektiv erwiesen. Obwohl sich die Anzahl der von Netskope Threat Labs erfassten genAI-Anwendungen im vergangenen Jahr verfünffacht hat, von 317 auf mehr als 1.600, stieg die durchschnittliche Anzahl der in einer Organisation eingesetzten KI-Anwendungen lediglich um 33 % von 6 auf 8. Lediglich bei den Top 1% der Organisationen (nicht abgebildet), bei denen die Kontrollen weniger streng sind, konnten wir signifikante Anstiege von 47 auf 89 Apps feststellen. Diese Ausnahmefälle sollten allen Organisationen als Mahnung dienen, zu überprüfen, wie viele genAI-Anwendungen sie einsetzen und ob diese alle einem legitimen Geschäftszweck dienen. Unternehmen, die als Außenseiter gelten, können ihre Risiken erheblich reduzieren, indem sie einfach den Zugriff auf nicht geschäftskritische Anwendungen einschränken und Datenschutz- und Schulungsrichtlinien auf geschäftskritische Anwendungen anwenden.

""

Wir gehen davon aus, dass die Zahl der Ausreißerorganisationen, die den Einsatz von Dutzenden von genAI-Anwendungen zulassen, im Jahr 2026 sinken wird, da immer mehr Organisationen beginnen, die Kontrolle über ihre genAI-Ökosysteme zu übernehmen. Dies wird durch die kontinuierliche Einführung New genAI-Apps und New Interaktionsmöglichkeiten mit genAI-Apps, wie z. B. KI-Browsern, vorangetrieben. Nachdem sie einen besseren Einblick in ihre genAI-Nutzung erhalten haben, werden mehr Organisationen einen proaktiveren Ansatz verfolgen und alle KI-Anwendungen blockieren, mit Ausnahme derjenigen, die auf einer Genehmigungsliste stehen.

Die Einführung von Agentic AI verstärkt die Datenexposition und das Insiderrisiko.

Neben KI-Browsern und MCP-Servern ist agentenbasierte KI ein weiterer aufkommender Trend im Bereich der genAI, der Unternehmen dazu zwingt, ihre Sicherheitsstrategie weiterzuentwickeln. Agentische KI-Systeme sind solche, die komplexe, autonome Aktionen über interne und externe Ressourcen hinweg ausführen. Organisationen erleben bereits eine rasante Verbreitung von agentenbasierter KI, sowohl durch den Einsatz von SaaS-Diensten als auch von KI-Plattformen wie Azure OpenAI. Während in der Anfangszeit SaaS-Anwendungen aufgrund ihrer Bequemlichkeit bevorzugt wurden, ermöglichen plattformbasierte Lösungen Unternehmen heute, Modelle intern zu hosten, sie in die bestehende Infrastruktur zu integrieren und kundenspezifische Anwendungen oder autonome Agenten zu erstellen, die auf spezifische Arbeitsabläufe zugeschnitten sind.

Derzeit nutzen 33 % der Unternehmen OpenAI-Dienste über Azure, 27 % nutzen Amazon Bedrock und 10 % setzen Google Vertex AI ein. Der Wandel hin zu diesen Plattformen für Unternehmen wird durch die zunehmende Verfügbarkeit sicherer, cloudbasierter genAI-Dienste vorangetrieben, die stärkere Datenschutzkontrollen und tiefergehende Integrationsmöglichkeiten bieten. Das Wachstum im Jahresvergleich unterstreicht diese Dynamik zusätzlich: Sowohl die Anzahl der Bedrock-Nutzer als auch das Datenaufkommen von Bedrock haben sich verdreifacht, während die Anzahl der Vertex AI-Nutzer um das Sechsfache und das Datenaufkommen um das Zehnfache gestiegen ist. Diese Trends verdeutlichen, wie schnell Unternehmen ihre genAI-Infrastruktur ausbauen, indem sie privatere, flexiblere und konforme Bereitstellungsframeworks erforschen.

Auch wenn Daten zunehmend über verwaltete Frameworks fließen, sei es über gehostete Modelle oder autonome KI-Agenten, bleiben die Sicherheitsrisiken hoch. Der rasante Aufstieg agentenbasierter Systeme führt zu New Angriffsvektoren, darunter Werkzeugmissbrauch, unsichere autonome Aktionen und erweiterte Wege zur Datenexfiltration. Verwaltete Modelle reduzieren zwar einige Risiken, können aber die Gefährdung durch sofortiges Einspeisen, übermäßigen Zugriff auf Tools, unsichere API-Integrationen oder unbeabsichtigtes Datenleck zwischen verschiedenen Kontexten nicht vollständig beseitigen. Da KI-Agenten zunehmend in der Lage sind, Aufgaben auszuführen und mit internen und externen Diensten zu interagieren, steigt das potenzielle Risiko von Fehlkonfigurationen oder kompromittierten Arbeitsabläufen erheblich. Organisationen, die diese Plattformen einsetzen, müssen die Modernisierung mit strengen Sicherheitskontrollen, kontinuierlicher Überwachung und dem Prinzip der minimalen Berechtigungen verbinden, um sicherzustellen, dass die Skalierbarkeit nicht auf Kosten der Sicherheit geht.

""

Selbst wenn KI-Agenten und -Anwendungen lokal oder in verwalteten Unternehmensumgebungen ausgeführt werden, erfolgt der Zugriff auf die zugrunde liegenden Modelle immer noch häufig über Cloud-basierte APIs und nicht über herkömmliche Browserschnittstellen. Während browserbasierte Interaktionen über Domains wie chatgpt.com geleitet werden, Automatisierte Arbeitsabläufe, interne Tools und KI-Agenten greifen stattdessen auf Endpunkte wie api.openai.com für den programmatischen Zugriff zurück.

Dieser Wandel vollzieht sich rasant. Heute sind 70 % der Organisationen mit api.openai.com verbunden. Dies spiegelt die dominante Rolle von OpenAI bei der Nutzung von genAI außerhalb des Browsers in internen Tools und agentenbasierten Systemen wider. AssemblyAI folgt mit 54 %, was auf seine starken Spracherkennungs- und Audiointelligenzfähigkeiten zurückzuführen ist. Die APIs von Anthropic werden von 30 % der Organisationen genutzt – ein Trend, der durch die zunehmende Akzeptanz von Claude-Modellen durch Entwickler für rechenintensive Aufgaben, strukturierte Analysen und die Anwendungsentwicklung befeuert wird.

Da KI immer stärker in die operative Infrastruktur vordringt, wird sich die Nutzung von API-basierter genAI voraussichtlich beschleunigen und zu einem der wichtigsten Kanäle werden, über die Unternehmensautomatisierung und KI-Agenten mit großen Sprachmodellen interagieren.

""

Die zunehmende Verbreitung von agentenbasierter KI verstärkt nicht nur die bereits erwähnten Risiken der Datenoffenlegung (weil Agenten Daten viel schneller an genAI-Anwendungen senden können), sondern auch die Risiken durch Insider, da ein Agent, der Zugriff auf sensible Daten oder Systeme erhält, viel schneller Schaden anrichten kann. Nicht nur könnte ein böswilliger Insider einen Agenten missbrauchen, um seiner Organisation Schaden zuzufügen, sondern auch ein fahrlässiger Insider könnte einen Agenten falsch konfigurieren oder ungenau anweisen. Der Nichtdeterminismus agentenbasierter Systeme, die auf LLMs beruhen, verstärkt diese Risiken noch weiter – Halluzinationen könnten sich dabei summieren und zu Datenlecks oder anderen organisatorischen Schäden führen.

Die rasante Verbreitung agentenbasierter KI und der damit einhergehende Wandel hin zu plattformbasierten, API-gesteuerten Arbeitsabläufen stellen die Sicherheitsanforderungen für das Jahr 2026 vor große Herausforderungen. Organisationen müssen erkennen, dass diese autonomen Systeme zwar New Maß an Effizienz ermöglichen, aber gleichzeitig die Angriffsfläche drastisch vergrößern und das Potenzial für durch Insider verursachte Datenoffenlegung beschleunigen. Da die Agenten immer mehr Zugriff und Autonomie erhalten, wird der Erfolg im Jahr 2026 davon abhängen, diese Innovation mit einer rigorosen Modernisierung der Sicherheit zu verbinden – insbesondere durch die Implementierung von kontinuierlicher Überwachung, dem Prinzip der minimalen Berechtigungen und robusten, agentenbewussten Kontrollen, um die erhöhten Risiken des Werkzeugmissbrauchs und der unbeabsichtigten Datenexfiltration einzudämmen.

 

Die Nutzung persönlicher Cloud-Apps stellt ein erhebliches Insider-Bedrohungsrisiko dar. Link Link

Bislang konzentrierte sich dieser Bericht auf die zusätzlichen Cybersicherheitsrisiken, die durch die rasche Einführung von genAI entstehen. Im weiteren Verlauf dieses Berichts werden wir uns auf die damit verbundenen Altrisiken konzentrieren, zu denen diese New Risiken hinzugekommen sind. In diesem Abschnitt konzentrieren wir uns auf die Nutzung persönlicher Cloud-Anwendungen, die weiterhin ein wichtiger Faktor für das Risiko der Offenlegung von Insiderdaten ist. Mitarbeiter nutzen häufig private Konten aus Bequemlichkeitsgründen, zur Zusammenarbeit oder zum Zugriff auf KI-Tools. Dieses Verhalten stellt Organisationen, die sensible Informationen schützen wollen, vor erhebliche Herausforderungen.

Bei 60 % der Insider-Bedrohungen handelt es sich um Instanzen von persönlichen Cloud-Anwendungen. Dabei werden regulierte Daten, geistiges Eigentum, Quellcode und Zugangsdaten häufig an persönliche Anwendungen gesendet, was gegen die Unternehmensrichtlinien verstößt. Während der Datenverkehr zu Cloud-Anwendungen über persönliche Konten im vergangenen Jahr im Wesentlichen unverändert geblieben ist, haben Unternehmen ihre Abwehrhaltung verbessert. Die Zahl der Organisationen, die Echtzeitkontrollen für Daten einsetzen, die an persönliche Apps gesendet werden, stieg von 70 % auf 77 %. Dies spiegelt einen wachsenden Fokus auf die Verhinderung des Eindringens sensibler Daten in unkontrollierte Umgebungen wider. DLP zählt zu den beliebtesten Tools zur Reduzierung der Risiken im Zusammenhang mit der privaten App-Nutzung und wird von 63 % der Unternehmen eingesetzt. Dies steht im Gegensatz zu genAI, wo nur 50 % der Organisationen DLP einsetzen, um das Risiko einer ungewollten Datenoffenlegung zu mindern.

Organisationen setzen weiterhin eine Reihe von Maßnahmen um, um das Risiko der Offenlegung von Daten durch persönliche Cloud- und genAI-Anwendungen zu reduzieren. Zu diesen Strategien gehören das Blockieren von Uploads in persönliche Apps, die Bereitstellung von Echtzeit-Benutzerhinweisen, um Mitarbeitern den sicheren Umgang mit sensiblen Informationen zu ermöglichen, und die Nutzung von DLP-Lösungen, um unautorisierte Datenübertragungen an nicht verwaltete Dienste zu verhindern.

Google Drive ist die am häufigsten kontrollierte App: 43 % der Unternehmen setzen Echtzeitschutzmaßnahmen ein, gefolgt von Gmail mit 31 % und OneDrive mit 28 %. Interessanterweise rangiert der persönliche ChatGPT-Dienst trotz seiner weiten Verbreitung mit 28 % nur auf dem vierten Platz, was darauf hindeutet, dass Unternehmen im Vergleich zu traditionellen Cloud-Plattformen bei der Governance von genAI-Tools noch Nachholbedarf haben. Diese Zahlen unterstreichen die laufenden Bemühungen, unautorisierte Datenbewegungen einzuschränken und die Risiken zu mindern, die mit der Nutzung persönlicher Konten bei nicht verwalteten Diensten verbunden sind.

""

 

Datenschutzverstöße in persönlichen Anwendungen

Im vergangenen Jahr ist der Anteil der Nutzer, die Daten in persönliche Cloud-Apps hochladen, um 21 % gestiegen. Heute laden 31 % der Nutzer in durchschnittlichen Unternehmen monatlich Daten in persönliche Cloud-Anwendungen hoch. Das ist mehr als doppelt so viel wie die Anzahl der Nutzer, die jeden Monat mit KI-Apps interagieren (15 %). Obwohl die zunehmende Verbreitung von KI nicht im gleichen Tempo voranschreitet, stellt die steigende Zahl von Menschen, die Daten an persönliche Cloud-Anwendungen senden, ein wachsendes Datensicherheitsrisiko dar.

Die Tatsache, dass 63 % der Organisationen DLP zur Überwachung und Steuerung der Übertragung sensibler Daten in persönliche Apps einsetzen, liefert uns eine Momentaufnahme der Datentypen, die Benutzer unter Verstoß gegen die Unternehmensrichtlinien hochladen. Regulierte Daten, darunter persönliche, finanzielle und gesundheitsbezogene Informationen, machen 54 % der Verstöße gegen Datenschutzrichtlinien im Zusammenhang mit persönlichen Cloud-Anwendungen aus. Im Vergleich dazu macht geistiges Eigentum 22 % aus, was das anhaltende Risiko widerspiegelt, dass geschützte Informationen aus genehmigten Umgebungen austreten. Der Quellcode macht 15 % der Verstöße aus, Passwörter und API-Schlüssel 8 %.

Mit Blick auf das Jahr 2026 erfordern die wachsenden Risiken durch die Nutzung persönlicher Cloud-Apps eine strategische Ausrichtung. Da die Zahl der Menschen, die Daten an persönliche Apps senden, stetig steigt, sollten Organisationen sicherstellen, dass sie den Fokus bei der Auseinandersetzung mit aufkommenden KI-Risiken nicht von den Risiken persönlicher Apps abwenden. Eine Stärkung der DLP-Abdeckung, eine verbesserte Mitarbeiterschulung und die konsequente Durchsetzung klarer Richtlinien für den Umgang mit Daten, um der wachsenden Bedrohung durch versehentliche und böswillige Datenoffenlegung entgegenzuwirken, können eine wirksame Strategie zur Risikominderung in beiden Bereichen sein.

""

 

Phishing bleibt eine anhaltende Herausforderung Link Link

Die vorangegangenen Abschnitte konzentrierten sich vor allem auf die Insiderrisiken im Zusammenhang mit der Einführung von KI und der Nutzung persönlicher Cloud-Apps im Unternehmen. In diesem Abschnitt verlagern wir unseren Fokus auf externe Gegner und die anhaltenden Risiken, die von ihnen weiterhin für Organisationen auf der ganzen Welt ausgehen. Darüber hinaus werden wir die Phishing-Trends des vergangenen Jahres untersuchen. Phishing-Kampagnen, die auf Cloud-Umgebungen abzielen, werden immer ausgefeilter. Angreifer setzen zunehmend auf gefälschte Anmeldeseiten, bösartige OAuth-Anwendungen und Reverse-Proxy-basierte Phishing-Kits, die Anmeldeinformationen und Session-Cookies in Echtzeit stehlen. Da Unternehmen immer mehr kritische Arbeitsabläufe in Cloud-Anwendungen verlagern, ist die Identität effektiv zum New Perimeter geworden, wodurch der Diebstahl von Anmeldeinformationen für Cloud-Anwendungen zu einem der effizientesten Wege für eine Kompromittierung wird.

Erfreulicherweise ging die Anfälligkeit der Nutzer im vergangenen Jahr leicht zurück: Die Klicks auf Phishing-Links sanken von 119 pro 10.000 Nutzer im letzten Jahr auf 87 pro 10.000 Nutzer in diesem Jahr, ein Rückgang um 27 %. Allerdings macht Phishing nach wie vor einen erheblichen Anteil der ersten Zugriffsversuche aus und lässt sich weiterhin nur schwer vollständig eindämmen, wie die beträchtliche Anzahl von Menschen beweist, die immer noch auf Phishing-Links klicken.

Auch die Nachahmung von Marken bleibt eine zentrale Taktik. Microsoft ist mit 52 % der Klicks bei Cloud-Phishing-Kampagnen mittlerweile die am häufigsten gefälschte Marke, gefolgt von Hotmail (11 %) und DocuSign (10 %). Diese Köder imitieren oft Authentifizierungsabläufe oder Aufforderungen zur Dokumentensignatur, um Anmeldeinformationen zu sammeln oder sensible App-Berechtigungen zu erlangen.

""

Ein zunehmender Trend ist der Missbrauch von OAuth-Consent-Phishing, bei dem Angreifer Benutzer dazu verleiten, Zugriff auf bösartige Cloud-Anwendungen zu gewähren und dabei Passwörter und Multi-Faktor-Authentifizierung (MFA) vollständig umgehen. In Verbindung mit dem Aufkommen von Session-Hijacking-Kits verlagert sich Phishing von einfacher E-Mail-Täuschung hin zu hochtechnischen Angriffen auf die Identitätsebene, die die Art und Weise ausnutzen, wie moderne Cloud-Anwendungen Benutzer authentifizieren und angemeldet halten. Organisationen müssen die kontinuierliche Sitzungsüberwachung, den Tokenschutz und die Erkennung abnormaler Zugriffe verstärken, anstatt sich ausschließlich auf Benutzerschulungen oder E-Mail-Filter zu verlassen.

Die Ziele von Phishing-Angriffen haben sich deutlich verlagert, da Angreifer dorthin gehen, wo sich die wertvollsten Zugangsdaten befinden. Während Cloud- und SaaS-Anwendungen weiterhin häufige Ziele sind, machen Bankportale mittlerweile 23 % der beobachteten Phishing-Angriffe aus, was den Fokus der Angreifer auf Finanzbetrug und Kontoübernahmen widerspiegelt. Bei Regierungsdienstleistungen ist die Zahl ebenfalls stark auf 21 % gestiegen, was auf Angreifer zurückzuführen ist, die digitale Ausweise und Bürgerportale für Identitätsdiebstahl und Steuerbetrug ausnutzen. Cloud-basierte Produktivitätssuiten, E-Commerce-Plattformen und soziale Medien zählen weiterhin zu den Hauptzielen, doch Finanz- und Regierungssysteme stehen nun im Mittelpunkt der Angriffe.

""

Trotz des jüngsten Rückgangs der Anfälligkeit der Nutzer bleibt das zugrunde liegende Phishing-Risiko kritisch hoch, wie das anhaltend hohe Klickvolumen belegt. Im Jahr 2026 wird sich diese Bedrohung noch verstärken, da Angreifer KI nutzen werden, um ausgefeiltere und hocheffiziente Köder sowie Angriffe auf die Identitätsebene zu entwickeln, und der Rückgang wird nur von kurzer Dauer gewesen sein. Der Erfolg wird davon abhängen, dass Organisationen Identität als den New Perimeter behandeln und weiterhin sicherstellen, dass überall robuste MFA-Strategien eingesetzt werden, aber auch kontinuierliche Sitzungsüberwachung, Token-Schutz und robuste Erkennung abnormaler Zugriffe einbeziehen.

 

Malware dringt weiterhin über vertrauenswürdige Kanäle in Organisationen ein. Link Link

Die letzte Ebene unseres sich verstärkenden Bedrohungsmodells zu Beginn des Jahres 2026 ist die Beharrlichkeit externer Angreifer, die vertrauenswürdige Kanäle missbrauchen und vertraute Arbeitsabläufe ausnutzen, um Opfer zur Installation von Schadsoftware zu verleiten. Angreifer missbrauchen zunehmend vertrauenswürdige Cloud-Dienste, um Schadsoftware zu verbreiten, da sie wissen, dass die Benutzer mit vertrauten Plattformen vertraut sind. GitHub bleibt der am häufigsten missbrauchte Dienst: 12 % der Unternehmen stellen monatlich fest, dass Mitarbeiter über die Anwendung Malware ausgesetzt sind. Danach folgen Microsoft OneDrive (10 %) und Google Drive (5,8 %). Ihre weite Verbreitung in der Zusammenarbeit und Softwareentwicklung macht sie zu idealen Kanälen für die Verbreitung infizierter Dateien, bevor die Anbieter diese entfernen können.

Neben dateibasierten Bedrohungen nehmen auch über das Internet verbreitete Malware-Programme hinsichtlich Umfang und Raffinesse stetig zu. Moderne Kampagnen setzen zunehmend auf dynamische, irreführende Webkomponenten anstelle traditioneller Downloads. Techniken wie iframe-basierte Injections betten versteckte Frames ein, die im Stillen bösartigen JavaScript laden und so automatische Weiterleitungen, die Ausführung nicht autorisierter Skripte oder Drive-by-Downloads ermöglichen. Angreifer setzen außerdem gefälschte Uploader ein, die legitime Datei-Download-Workflows imitieren, um Anmeldeinformationen zu erfassen oder Schadsoftware zu übermitteln, sowie gefälschte CAPTCHA -Seiten, die interaktive Elemente verwenden, um Benutzer dazu zu bringen, Skripte zu aktivieren oder Browserschutzmechanismen zu umgehen.

Eine zunehmende Besorgnis bereitet das Auftreten von LLM-gestützter Malware, bei der Angreifer große Sprachmodelle verwenden, um anpassungsfähigen Schadcode zu generieren oder die Verschleierung zu automatisieren. Dieser Wandel ermöglicht schnellere Entwicklungszyklen und besser anpassbare Nutzdaten, die zunehmend schwieriger zu erkennen und in großem Umfang zu blockieren sind.

""

Angriffe auf Software-Lieferketten nehmen weiter zu, da Angreifer zunehmend die Vertrauensbeziehungen zwischen miteinander verbundenen Diensten, SaaS-Plattformen und Paketökosystemen ins Visier nehmen. Ein aktuelles Beispiel ist eine New Welle von Shai-Hulud -Aktivitäten, die auf die npm-Lieferkette abzielen. Dabei versuchen bösartige Pakete, schädlichen Code über die Arbeitsabläufe von Entwicklern zu verbreiten.

Neben den Paket-Ökosystemen haben sich SaaS-zu-SaaS-Integrationen als kritische Schwachstelle herausgestellt, da Angreifer API-Vertrauensketten ausnutzen, um sich lateral zwischen Cloud-Anwendungen zu bewegen. In einem aufsehenerregenden Fall entdeckte Salesforce über Gainsight-Integrationen verdächtige API-Aufrufe von nicht zugelassenen IP-Adressen, woraufhin Salesforce die zugehörigen Zugriffstoken widerrief, die Funktionalität einschränkte und eine umfassende Untersuchung einleitete.

Ein weiterer bemerkenswerter Vorfall war der Salesloft-Datendiebstahl mit der Kennung UNC6395, ein mehrstufiger Lieferkettenangriff, der von Mandiant/Google identifiziert wurde. Die Angreifer missbrauchten unüberwachte Inter-App-Integrationen, insbesondere Salesloft Drift, und verdeutlichten damit, wie kompromittierte SaaS-Konnektoren zu einem unsichtbaren Kanal für Datendiebstahl werden können.

Zusammengenommen verdeutlichen diese Vorfälle einen Trend, der sich voraussichtlich bis 2026 fortsetzen wird: Angriffe auf Lieferketten haben sich von traditionellen Software-Updates auf die moderne Cloud-Architektur verlagert und zielen auf Paketregister, Automatisierungspipelines und miteinander verbundene SaaS-Ökosysteme ab, in denen die Sicherheitskontrollen oft fragmentiert oder gar nicht vorhanden sind. Um diesem Trend entgegenzuwirken, müssen Organisationen der Gewinnung umfassender Transparenz über diese Vertrauensbeziehungen höchste Priorität einräumen und sicherstellen, dass ihre Sicherheitsarchitektur gegen die breite Palette von Taktiken gewappnet ist, mit denen Angreifer Sicherheitskontrollen umgehen und ihre Opfer täuschen.

Empfehlungen Link Link

Die Cybersicherheitslandschaft des Jahres 2026 wird im Wesentlichen durch die sich gegenseitig verstärkende Komplexität bestimmt, die durch die rasante und oft unkontrollierte Einführung generativer KI entsteht. Diese Entwicklung hat die bestehenden Bedrohungen nicht ersetzt, sondern New, komplexe Risiken darübergelegt. Die unmittelbarste Herausforderung ist der massive Anstieg unerwünschter Datenoffenlegung. Gleichzeitig schafft das Aufkommen agentenbasierter KI-Systeme, die komplexe und autonome Aktionen über interne Ressourcen hinweg ausführen, eine riesige New Angriffsfläche, die das Insiderrisiko verstärkt und eine Neubewertung der Sicherheitsperimeter erfordert. Diese Kombination aus neuartigen, KI-gesteuerten Bedrohungen und altbekannten Problemen wie anhaltendem Phishing und Malware, die über vertrauenswürdige Cloud-Kanäle verbreitet werden, bedeutet, dass Sicherheitsteams nun ein additives Bedrohungsmodell verwalten müssen, wodurch die Stärkung der Aufsicht, der DLP-Kontrollen und einer KI-bewussten Sicherheitsstrategie für das kommende Jahr unerlässlich wird.

Auf Grundlage der in diesem Bericht aufgedeckten Trends empfiehlt Netskope Threat Labs Unternehmen dringend, ihre gesamte Sicherheitslage neu zu bewerten:

  • Überprüfen Sie alle HTTP- und HTTPS-Downloads, einschließlich des gesamten Web- und Cloud-Verkehrs, um zu verhindern, dass Malware in Ihr Netzwerk eindringt. Netskope Kunden können ihr Netskope One Next Gen Secure Web Gateway mit einer Bedrohungsschutzrichtlinie konfigurieren, die für Downloads aus allen Kategorien und für alle Dateitypen gilt.
  • Blockieren Sie den Zugriff auf Apps, die keinem legitimen Geschäftszweck dienen oder ein unverhältnismäßiges Risiko für die Organisation darstellen. Ein guter Ausgangspunkt ist eine Richtlinie, die seriöse Apps, die derzeit verwendet werden, zulässt, während alle anderen blockiert werden.
  • Verwenden Sie DLP-Richtlinien , um potenziell vertrauliche Informationen zu erkennen, einschließlich Quellcode, regulierte Daten, Passwörter und Schlüssel, geistiges Eigentum und verschlüsselte Daten, die an persönliche App-Instanzen, genAI-Apps oder andere nicht autorisierte Speicherorte gesendet werden.
  • Verwenden Sie die Remote Browser Isolation (RBI) -Technologie, um zusätzlichen Schutz zu bieten, wenn Sie Websites besuchen müssen, die in Kategorien fallen, die ein höheres Risiko darstellen können, wie beispielsweise neu beobachtete und neu registrierte Domänen.

 

Netskope Threat Labs Link Link

Netskope Threat Labs besteht aus den branchenweit führenden Forschern für Cloud-Bedrohungen und Malware, die Abwehrmaßnahmen gegen die neuesten Cloud-Bedrohungen entdecken, analysieren und entwickeln, die Unternehmen betreffen. Unsere Forscher sind regelmäßige Referenten und Freiwillige auf führenden Sicherheitskonferenzen, darunter DefCon, BlackHat und RSA.

 

Über diesen Bericht Link Link

Netskope bietet Millionen von Nutzern weltweit Schutz vor Bedrohungen. Die in diesem Bericht präsentierten Informationen basieren auf anonymisierten Nutzungsdaten, die von der Netskope One-Plattform erfasst wurden.

Die Statistiken in diesem Bericht basieren auf dem Zeitraum vom 1. Oktober 2024 bis zum 31. Oktober 2025. Die Statistiken spiegeln die Taktiken der Angreifer, das Nutzerverhalten und die Unternehmensrichtlinien wider.

Spiele AI CyberSprint – das ultimative Online-Rennspiel