Netskope wird im Gartner® Magic Quadrant™ für SASE-Plattformen erneut als Leader ausgezeichnet.Holen Sie sich den Bericht

Schließen
Schließen
Ihr Netzwerk von morgen
Ihr Netzwerk von morgen
Planen Sie Ihren Weg zu einem schnelleren, sichereren und widerstandsfähigeren Netzwerk, das auf die von Ihnen unterstützten Anwendungen und Benutzer zugeschnitten ist.
Erleben Sie Netskope
Machen Sie sich mit der Netskope-Plattform vertraut
Hier haben Sie die Chance, die Single-Cloud-Plattform Netskope One aus erster Hand zu erleben. Melden Sie sich für praktische Übungen zum Selbststudium an, nehmen Sie an monatlichen Live-Produktdemos teil, testen Sie Netskope Private Access kostenlos oder nehmen Sie an Live-Workshops teil, die von einem Kursleiter geleitet werden.
Ein führendes Unternehmen im Bereich SSE. Jetzt ein führender Anbieter von SASE.
Netskope wird als Leader mit der weitreichendsten Vision sowohl im Bereich SSE als auch bei SASE Plattformen anerkannt
2X als Leader im Gartner® Magic Quadrant für SASE-Plattformen ausgezeichnet
Eine einheitliche Plattform, die für Ihre Reise entwickelt wurde
Generative KI für Dummies sichern
Generative KI für Dummies sichern
Erfahren Sie, wie Ihr Unternehmen das innovative Potenzial generativer KI mit robusten Datensicherheitspraktiken in Einklang bringen kann.
Moderne Data Loss Prevention (DLP) für Dummies – E-Book
Moderne Data Loss Prevention (DLP) für Dummies
Hier finden Sie Tipps und Tricks für den Übergang zu einem cloudbasierten DLP.
Modernes SD-WAN für SASE Dummies-Buch
Modernes SD-WAN für SASE-Dummies
Hören Sie auf, mit Ihrer Netzwerkarchitektur Schritt zu halten
Verstehen, wo die Risiken liegen
Advanced Analytics verändert die Art und Weise, wie Sicherheitsteams datengestützte Erkenntnisse anwenden, um bessere Richtlinien zu implementieren. Mit Advanced Analytics können Sie Trends erkennen, sich auf Problembereiche konzentrieren und die Daten nutzen, um Maßnahmen zu ergreifen.
Technischer Support von Netskope
Technischer Support von Netskope
Überall auf der Welt sorgen unsere qualifizierten Support-Ingenieure mit verschiedensten Erfahrungen in den Bereichen Cloud-Sicherheit, Netzwerke, Virtualisierung, Content Delivery und Software-Entwicklung für zeitnahen und qualitativ hochwertigen technischen Support.
Netskope-Video
Netskope-Schulung
Netskope-Schulungen helfen Ihnen, ein Experte für Cloud-Sicherheit zu werden. Wir sind hier, um Ihnen zu helfen, Ihre digitale Transformation abzusichern und das Beste aus Ihrer Cloud, dem Web und Ihren privaten Anwendungen zu machen.

Die Einführung von GenAI nimmt rasant zu, wobei SaaS-KI-Apps, GenAI-Plattformen, lokale KI-Infrastrukturen und jetzt auch benutzerdefinierte KI-Agenten zu den Hauptstützen des Unternehmens werden. Die neuesten Trends, einschließlich lokaler KI-Infrastruktur, genAI-Plattformen und benutzerdefinierter Agenten, bringen zusätzliche Daten- und Sicherheitsrisiken für das Unternehmen mit sich, während sie gleichzeitig weitgehend unter dem Radar der Sicherheitsteams bleiben. Dieser Bericht hilft Ihnen, Licht in die Schatten-KI-Infrastruktur in Ihrem Unternehmen zu bringen, damit Sie mit der Minderung dieser Risiken beginnen können.

18 Minuten Lesezeit

Einführung Link Link

Dies ist unser vierter Netskope Cloud and Threat Report, der sich dem aufstrebenden Bereich der generativen KI widmet. Unser erster Bericht im Jahr 2023 hob das exponentielle Wachstum der Popularität von ChatGPT in Unternehmen hervor. Unser zweiter Bericht aus dem Jahr 2024 zeigte, dass fast alle Unternehmen SaaS-GenAI-Apps verwenden und Richtlinien zum Schutz sensibler Daten implementieren. Unser jüngster Bericht setzte dieses Narrativ fort und stellte Konzepte der Schatten-KI, der indirekten Gen-KI-Nutzung und der lokalen KI vor. In dieser neuesten Folge werden aufkommende Trends im Bereich der Schatten-KI und der agentischen KI in Unternehmen untersucht, bei denen einige Benutzer bei der Entwicklung benutzerdefinierter Apps und autonomer Agenten auf genAI-Plattformen und On-Premises-Lösungen umsteigen, was eine Reihe neuer Herausforderungen für die Cybersicherheit mit sich bringt.

Dieser Bericht konzentriert sich auf Schatten-KI und agentische KI und untersucht, wie Unternehmen Licht in die Schatten bringen können. Wir beginnen mit der Untersuchung von SaaS-GenAI-Apps, bei denen wir immer noch eine beträchtliche Menge an Schatten-KI sehen. Es zeichnet sich ein klarer Trend zur Zentralisierung ab, wobei sich Unternehmen zu einigen wichtigen unternehmensgesteuerten Ökosystemen hingezogen fühlen, insbesondere Gemini und Copilot. Die Mehrheit der Nutzer (60 %) verwendet jedoch immer noch persönliche, nicht verwaltete Apps, was eine erhebliche Menge an Schatten-KI darstellt, die sich weiterhin auf neue Apps ausweitet, sobald diese veröffentlicht werden.

Wir fahren mit genAI-Plattformen wie Azure OpenAI, Amazon Bedrock und Google Vertex AI fort, die aufgrund ihrer Einfachheit, Flexibilität, Anpassbarkeit und Skalierbarkeit schnell an Popularität gewinnen. Sie ermöglichen es Benutzern, benutzerdefinierte Anwendungen oder Agenten mit den Modellen ihrer Wahl zu erstellen. Und vielleicht am wichtigsten ist, dass sie einige Sicherheits- und Datenschutzgarantien bieten, die sie von vielen SaaS-Anwendungen und lokalen Lösungen unterscheiden. In dieser Phase wird die Einführung von genAI-Plattformen von Einzelpersonen angeführt, die mit der relativ neuen Technologie experimentieren, so dass genAI-Plattformen die am schnellsten wachsende Kategorie der Schatten-KI darstellen.

Das Ausführen einer lokalen KI-Infrastruktur ist ebenfalls ein wachsender Trend, bei dem Benutzer Tools wie Ollama installieren, um eine Schnittstelle zu einer Vielzahl von Modellen bereitzustellen, oder Frameworks wie LangChain verwenden, um benutzerdefinierte Agenten zu erstellen und so eine neue lokale Schatten-KI-Infrastruktur zu schaffen. On-Premises-KI wächst langsamer als genAI-Plattformen, da letztere leichter zugänglich sind und eine bessere Sicherheit von der Stange bieten, wie wir später in diesem Bericht untersuchen werden.

Wir schließen den Bericht mit einer Untersuchung des Bereichs der KI-Agenten ab, bei denen es sich um Systeme handelt, die KI nutzen, um ein bestimmtes Ziel mit minimalem menschlichem Eingreifen zu erreichen. Dies ist ein Bereich, in dem wir jetzt beginnen, erhebliche Aktivitäten im Unternehmen zu sehen, da die Benutzer eine Vielzahl von Agenten-Frameworks sowohl vor Ort als auch in der Cloud erkunden und noch mehr Schatten-KI aufbauen, die eng mit Unternehmensdaten und kritischen Workflows verflochten ist.

 

Höhepunkte Link Link

  • Schatten-KI stellt den Großteil der KI-Nutzung in Unternehmen dar, angetrieben durch die individuelle Einführung von SaaS-KI-Apps, KI-Plattformen, lokalen KI-Bereitstellungen und jetzt auch benutzerdefinierten KI-Agenten.
  • Die Nutzung von SaaS-KI nimmt in einem durchschnittlichen Unternehmen weiterhin rasant zu: In den letzten drei Monaten haben 50 % mehr Menschen mit KI-Apps interagiert und 6,5 % mehr Daten wurden in SaaS-KI-Apps hochgeladen, was einem Durchschnitt von 8,2 GB pro Unternehmen und Monat entspricht.
  • ChatGPT erlebte seinen ersten Rückgang der Popularität in Unternehmen, seit wir im Jahr 2023 mit der Verfolgung begonnen haben, da sich die Nutzung von SaaS-KI um speziell entwickelte Lösungen wie Gemini und Copilot konzentriert, die gut in bestehende Unternehmensworkflows integriert sind.
  • KI-Plattformen (z. B. Amazon Bedrock, Azure OpenAI und Google Vertex AI) gewinnen immer mehr an Popularität und ermöglichen es Benutzern, benutzerdefinierte Apps und Agenten zu erstellen, die direkt mit Unternehmensdatenspeichern interagieren, was Unternehmen vor neue Herausforderungen für die Schatten-KI stellt.
  • KI-Agenten werden vor Ort mithilfe von Agenten-Frameworks wie LangChain entwickelt, getestet und bereitgestellt, wodurch eine besonders herausfordernde neue Art von Schatten-KI entsteht, da lokale Bereitstellungen in der Regel am schwierigsten zu entdecken und zu sichern sind.

 

Definitionen Link Link

  • Agenten-Frameworks sind Softwarebibliotheken und -tools, die die Erstellung autonomer KI-Agenten vereinfachen, indem sie vorgefertigte Komponenten für die Planung, den Speicher und die Tool-Integration bereitstellen (z. B. LangChain, OpenAI Agent Framework).
  • Agentische KI bezieht sich auf Systeme, bei denen ein Agent autonom eine Reihe von Aktionen planen und ausführen kann, um ein übergeordnetes Ziel zu erreichen, und komplexe Aufgaben ohne Schritt-für-Schritt-Anleitung von Menschen erledigen kann.
  • GenAI-Plattformen sind verwaltete Cloud-Dienste, die die grundlegenden Modelle, Tools und Infrastrukturen zum Erstellen, Anpassen, Trainieren und Bereitstellen von KI-Modellen, -Anwendungen und -Agenten bereitstellen (z. B. Amazon Bedrock, Azure OpenAI, Google Vertex AI).
  • LLM-Schnittstellen sind Front-End-Anwendungen, die es Benutzern ermöglichen, mit LLMs zu interagieren, und die in der Regel lokal verwendet werden (z. B. Ollama, LM Studio).
    SaaS-genAI-Apps sind speziell entwickelte, in der Cloud gehostete Anwendungen, die genAI als primäre Funktion verwenden, um neue Inhalte zu erstellen oder vorhandene Inhalte zusammenzufassen (z. B. ChatGPT, Gemini, Copilot).

 

Anhaltendes Wachstum der SaaS-GenAI-App Link Link

Die Akzeptanz von SaaS-GenAI-Apps nimmt in Unternehmen weiter zu. Während der Prozentsatz der Unternehmen, die SaaS-genAI-Apps verwenden, stagniert hat und 89 % der Unternehmen mindestens eine SaaS-genAI-App aktiv nutzen, manifestiert sich die zunehmende Akzeptanz von SaaS genAI weiterhin auf vielfältige Weise innerhalb des Unternehmens. Erstens stieg die Zahl der Personen, die SaaS-genAI-Apps in jedem Unternehmen nutzten, um mehr als 50 %, wobei durchschnittlich 7,6 % der Personen in jedem Unternehmen im Mai SaaS-genAI-Apps verwendeten, verglichen mit 5 % im Februar (wie in der folgenden Abbildung gezeigt). Die Abbildung zeigt auch das erste und dritte Quartil, wobei das dritte Quartil hervorhebt, dass mehr als ein Viertel (25,6 %) der Nutzer aktiv SaaS-GenAI-Apps nutzen. Im 90. Perzentil (nicht abgebildet) verwenden mindestens 47 % der Nutzer in diesen Unternehmen SaaS-GenAI-Apps.

Diagramm mit dem Median der GenAI-Nutzer pro Monat und dem schattierten Bereich des 1. und 3. Quartils

Zweitens wächst die Zahl der verwendeten genAI-Apps weiter und erreicht durchschnittlich 7 pro Unternehmen, gegenüber 5,6 im Februar. Ein ähnliches Wachstum verzeichneten wir im dritten Quartil, wo die Unternehmen jetzt 15,4 Apps verwenden, gegenüber 13,3 im Februar. Wir haben dieses Wachstum in unserem Februar-Bericht vorhergesagt, da aggressive Investitionen in KI-Startups zur Veröffentlichung vieler neuer SaaS-KI-Apps führen, was zu noch mehr Schatten-KI-Nutzung führt, die entdeckt und gesichert werden muss. Heute verfolgt Netskope mehr als 1.550 verschiedene generative KI-SaaS-Anwendungen, gegenüber nur 317 im Februar, was auf das rasante Tempo hinweist, mit dem neue Apps veröffentlicht und in Unternehmensumgebungen eingeführt werden.

Diagramm mit dem Median von GenAI-Apps pro Organisation mit schattiertem Bereich im 1. und 3. Quartil

Die dritte Möglichkeit, wie sich das Wachstum von SaaS-GenAI-Apps im Unternehmen manifestiert, ist die Datenmenge, die in diese Apps fließt. In einem durchschnittlichen Unternehmen ist die Menge der monatlich hochgeladenen Daten in den letzten drei Monaten um 6,5 % von 7,7 GB auf 8,2 GB gestiegen. Am 75. Perzentil war dieser Anstieg sogar noch deutlicher, nämlich von 20 GB auf 22,8 GB (ein Anstieg von 14 %). Im 90. Perzentil setzt sich das Muster fort, mit einem Anstieg um 15 % von 46 GB auf 53 GB. Bei der aktuellen Rate gehen wir davon aus, dass das 90. Perzentil im 3. Quartal 2026 100 GB überschreiten wird. Selbst in Unternehmen, in denen bereits eine beträchtliche Menge an Daten in SaaS-GenAI-Apps hochgeladen wird, setzt sich das schnelle Wachstum fort, ohne dass es Anzeichen einer Verlangsamung gibt. Wie in unserem vorherigen Bericht zur generativen KI beschrieben, umfassen die Daten, die Benutzer in genAI-Apps hochladen, geistiges Eigentum, regulierte Daten, Quellcode und Geheimnisse, was unterstreicht, wie wichtig es ist, die Nutzung von Schatten-SaaS genAI zu identifizieren und Kontrollen zu implementieren, um unerwünschte Datenlecks zu verhindern.

Eine weitere bemerkenswerte Veränderung, die in den letzten vier Monaten stattgefunden hat, ist ein Rückgang der Zahl der Organisationen, die ChatGPT verwenden. Seit seiner Einführung im November 2022 ist der Prozentsatz der Organisationen, die ChatGPT verwenden, nie gesunken. Im Februar berichteten wir, dass fast 80 % der Unternehmen ChatGPT verwenden, dieser Anteil ist nun leicht auf 78 % gesunken. Dieser Rückgang ist darauf zurückzuführen, dass Gemini und Copilot (Microsoft Copilot, Microsoft 365 Copilot, GitHub Copilot) dank ihrer nahtlosen Integration in die Produktökosysteme von Google und Microsoft, die im Unternehmen bereits allgegenwärtig sind, weiter an Bedeutung gewinnen. ChatGPT war die einzige der Top-10-Apps, die seit Februar einen Rückgang verzeichnete, wie in der folgenden Abbildung zu sehen ist. Andere Top-10-Apps, darunter Anthropic Claude, Perplexity AI, Grammarly und Gamma, verzeichneten alle Zuwächse bei der Akzeptanz in Unternehmen.

Diagramm mit den beliebtesten Apps nach Prozentsatz der Organisationen

Eine weitere bemerkenswerte Veränderung seit unserem letzten Bericht ist, dass Grok schnell an Popularität gewinnt und im Mai zum ersten Mal in die Top 10 einsteigt. Interessanterweise ist Grok jetzt gleichzeitig in den Top 10 der meistgenutzten Apps (siehe Bild oben) und auch in den Top 10 der am häufigsten blockierten Apps (Bild unten). Im Vergleich zum Februar blockieren weniger Unternehmen Grok und erlauben es stattdessen für bestimmte (in der Regel persönliche) Anwendungsfälle. Die Zahl der Organisationen, die Grok blockieren, erreichte im April ihren Höhepunkt und ist tendenziell rückläufig , da die Zahl der Grok-Nutzer weiter steigt. Dies ist darauf zurückzuführen, dass sich Unternehmen für detailliertere Kontrollen entscheiden und DLP und Echtzeit-Benutzercoaching verwenden, um zu verhindern, dass sensible Daten an Grok gesendet werden. Allerdings übersteigen die Blöcke immer noch die Erlaubten: 25 % der Unternehmen blockierten im Mai alle Versuche, Grok zu verwenden, während nur 8,5 % der Unternehmen eine gewisse Nutzung von Grok feststellen. Dies ist kein ungewöhnlicher Trend, da Unternehmen dazu neigen, neue Apps zunächst zu blockieren, während sie Sicherheitsüberprüfungen durchführen und Kontrollen implementieren, um ihre Nutzung einzuschränken. Auf der anderen Seite gibt es einige SaaS-GenAI-Apps, wie z. B. DeepSeek, die nach wie vor stark blockiert sind und daher keinen nennenswerten Einsatz im Unternehmen finden.

Diagramm der am meisten blockierten KI-Apps nach Prozentsatz der Organisationen, die ein generelles Verbot der App erlassen

Schatten-KI ist ein relativ neuer Begriff, der den Einsatz von KI-Lösungen ohne das Wissen oder die Zustimmung zentraler IT- und Cybersicherheitsabteilungen beschreibt. In den Anfängen war fast 100 % der SaaS-GenAI-Nutzung Schatten-KI. Im Laufe der Zeit begannen Unternehmen, bestimmte Unternehmenslösungen (in der Regel ChatGPT, Gemini oder Copilot) zu überprüfen und zu genehmigen, und die Benutzer wechselten zu diesen genehmigten Lösungen. Echtzeit-Coaching-Richtlinien, die Benutzer, die eine nicht genehmigte Lösung verwenden, daran erinnern, zu einer genehmigten Lösung zu wechseln, waren bei diesem Übergang von entscheidender Bedeutung. Diese Kontrollen sind nach wie vor wirksam: Im Mai nutzten nur 60 % der Unternehmensbevölkerung persönliche SaaS-GenAI-Apps, was einem Rückgang von 12 Prozentpunkten seit Februar entspricht. Wir gehen davon aus, dass sich dieser Trend in den kommenden Monaten fortsetzen wird und die Rate bis Ende des Jahres unter 40 % sinken wird. Gleichzeitig sind neue Schatten-KI-Herausforderungen (genAI-Plattformen, On-Premises-genAI und KI-Agenten) entstanden, die wir in den folgenden Abschnitten genauer untersuchen werden.

Diagramm, das die Aufschlüsselung der GenAI-Nutzung nach persönlichen und organisatorischen Konten zeigt

Für Leser, die daran interessiert sind, das Ausmaß der Nutzung von SaaS-Schatten-KI in ihren Umgebungen zu erfahren, verfolgt Netskope mehr als 1.550 verschiedene generative KI-SaaS-Anwendungen. Netskope-Kunden können Schatten-KI identifizieren, indem sie nach App-Aktivitäten suchen, die als "generative KI" kategorisiert sind, und sich auf nicht genehmigte Apps und persönliche Anmeldungen konzentrieren. Während das Blockieren nicht genehmigter Apps eine effektive Strategie sein kann, sind Benutzercoaching-Richtlinien eine nuanciertere Methode, um Benutzer von nicht genehmigten Lösungen weg und hin zu solchen, die vom Unternehmen verwaltet und genehmigt werden, zu führen. Solche Richtlinien sind oft mit DLP-Richtlinien gekoppelt, um das Risiko zu mindern, dass vertrauliche Daten an nicht genehmigte SaaS-GenAI-Apps weitergegeben werden, wie in unserem vorherigen Cloud- und Bedrohungsbericht beschrieben.

 

Zunehmende Akzeptanz von genAI-Plattformen Link Link

Während SaaS-GenAI-Apps aufgrund ihrer Benutzerfreundlichkeit an Popularität gewonnen haben, gewinnen genAI-Plattformen aufgrund ihrer Flexibilität und ihrer Vorteile für den Datenschutz immer mehr an Popularität. Ihre Flexibilität beruht auf der Tatsache, dass Sie die Modelle Ihrer Wahl schnell und einfach über eine einzige Schnittstelle bereitstellen können. Ihre Vorteile für die Privatsphäre ergeben sich aus der Tatsache, dass Sie die Modelle selbst hosten und keine Ihrer Daten an Dritte weitergeben. Gleichzeitig verlagert das Modell der geteilten Verantwortung in einer genAI-Plattform im Vergleich zu einer SaaS-Lösung mehr Sicherheitsverantwortung auf den Benutzer.

Der Einsatz von genAI-Plattformen steigt sprunghaft an. Wir haben in den letzten drei Monaten einen Anstieg der Nutzerzahlen um 50 % und einen Anstieg des Netzwerkverkehrs um 73 % auf diesen Plattformen festgestellt. Im Mai nutzten 41 % der Unternehmen mindestens eine genAI-Plattform, während 14 % mindestens zwei und 2,7 % mindestens drei verwenden. Einer der Gründe für die Verbreitung mehrerer Lösungen ist, dass die Einführung von genAI-Plattformen ein weiteres Schatten-KI-Problem ist; Der Einzelne wählt die Frameworks, mit denen er am besten vertraut ist oder die für seine spezifischen Anwendungsfälle am besten geeignet erscheinen. Die Nutzung einer genAI-Plattform ist auch fast so zugänglich wie die Verwendung einer SaaS-genAI-App, da die großen Cloud-Service-Anbieter alle ihre eigenen Angebote haben. Die beliebteste genAI-Plattform ist Microsoft Azure OpenAI, die von 29 % der Unternehmen verwendet wird. Amazon Bedrock folgt mit 22 % dicht dahinter, gefolgt von Google Vertex AI mit 7,2 % auf dem dritten Platz. Alle drei Plattformen werden immer beliebter, da sich immer mehr Nutzer mit ihnen vertraut machen und die Möglichkeiten erkunden, die sie bieten.

Diagramm zur Einführung des Cloud-KI-Frameworks nach Prozentsatz der Organisationen

Das rasante Wachstum von Schatten-KI legt dem Unternehmen die Verantwortung auf, herauszufinden, wer mit genAI-Plattformen eine Cloud-genAI-Infrastruktur erstellt, wo sie aufgebaut wird und ob sie Best Practices für die KI-Sicherheit befolgt. Eines der leistungsstarken Merkmale dieser genAI-Plattformen besteht darin, dass sie die direkte Verbindung von Unternehmensdatenspeichern mit KI-Anwendungen ermöglichen, was zusätzliche Überprüfungen und Überwachungen erfordert, um sicherzustellen, dass diese Anwendungen die Datensicherheit des Unternehmens nicht beeinträchtigen. Netskope-Kunden können Einblicke in die Verwendung dieser Tools und deren Verwendung erhalten, indem sie ihre Protokolle für eine dieser genAI-Plattformen namentlich überprüfen. Zu wissen, wer sie verwendet und wie sie verwendet werden, ist der erste Schritt, um ihre sichere Nutzung zu gewährleisten.

 

Zunehmende Akzeptanz von On-Premises-GenAI Link Link

Eine weitere Praxis, die immer beliebter wird, ist die Verwendung von genAI On-Premises. Die Nutzung von genAI vor Ort nimmt mehrere Formen an, von der Verwendung lokaler GPU-Ressourcen zum Trainieren oder Hosten von Modellen bis hin zur Entwicklung lokaler Tools, die mit SaaS-genAI-Anwendungen oder genAI-Plattformen interagieren. Die lokale Verwendung von genAI ist eine gute Möglichkeit für Unternehmen, ihre vorhandenen GPU-Ressourceninvestitionen zu nutzen oder Tools zu erstellen, die mit lokalen Systemen und Datasets interagieren. Die Bereitstellung vor Ort bedeutet jedoch auch, dass das Unternehmen allein für die Sicherheit seiner genAI-Infrastruktur verantwortlich ist. Darüber hinaus ist das Verständnis und die Anwendung von Frameworks wie den OWASP Top 10 for Large Language Model Applications oder Mitre Atlas jetzt unerlässlich.

Eine der beliebtesten Möglichkeiten, genAI lokal zu nutzen, ist die Bereitstellung einer LLM-Schnittstelle. Ähnlich wie genAI-Plattformen ermöglichen LLM-Schnittstellen die Interaktion mit verschiedenen Modellen über eine einzige Schnittstelle. LLM-Schnittstellen sind nicht so weit verbreitet wie genAI-Plattformen: Nur 34 % der Unternehmen verwenden LLM-Schnittstellen, verglichen mit 41 % der genAI-Plattformen. Ollama ist mit Abstand das beliebteste Framework und dient auch als hervorragendes Beispiel für einen der wichtigsten Sicherheitsunterschiede zwischen der Arbeit vor Ort und in einer genAI-Plattform: Ollama enthält keine integrierte Authentifizierung. Wenn Sie also Ollama verwenden, müssen Sie es hinter einem Reverse-Proxy oder einer Private-Access-Lösung mit geeigneten Authentifizierungsmechanismen zum Schutz vor unbefugter Nutzung bereitstellen. Während die genAI-Plattformen in der Regel einen KI-Schutz zum Schutz vor dem Missbrauch der Modelle selbst bieten, müssen diejenigen, die Frameworks wie Ollama verwenden, zusätzliche Schritte unternehmen, um Missbrauch und Missbrauch zu verhindern. Im Vergleich zu Ollama haben andere LLM-Schnittstellen, einschließlich LM Studio und Ramalama, eine viel kleinere Benutzerbasis in Unternehmen.

Diagramm mit den wichtigsten LLM-Schnittstellen nach Prozentsatz der Organisationen

Aufgrund der erhöhten Sicherheitsbedenken im Zusammenhang mit der Verwendung von KI-Schnittstellen sollten Unternehmen proaktiv daran arbeiten, herauszufinden, wer sie verwendet und wo sie verwendet werden. Netskope-Kunden können die Verwendung gängiger LLM-Schnittstellen anhand ihrer User-Agent-Zeichenfolgen in den Transaktionsprotokollen identifizieren. Die User-Agent-Zeichenfolgen der ersten drei Schnittstellen beginnen z. B. mit ollama, LM Studiound llama-cpp.

Eine weitere Möglichkeit, herauszufinden, wer mit KI-Tools experimentiert, besteht darin, den Zugriff auf KI-Marktplätze wie Hugging Face zu überwachen. Hugging Face ist eine sehr beliebte Community für den Austausch von KI-Tools, KI-Modellen und Datensätzen. In 67 % der Unternehmen laden Benutzer Ressourcen von Hugging Face herunter. Obwohl die Population der Benutzer, die dies tun, klein ist (durchschnittlich nur 0,3 %), ist die Identifizierung dieser Benutzer entscheidend für die Aufdeckung von Schatten-KI, da sie möglicherweise eine KI-Infrastruktur vor Ort oder in der Cloud bereitstellen. Da es sich bei Hugging Face um eine Community-Plattform handelt, die den Austausch erleichtern soll, müssen sich Unternehmen außerdem der Risiken in der Lieferkette bewusst sein, die mit Ressourcen verbunden sind, die von dieser Plattform heruntergeladen werden. Zusätzlich zu den offensichtlichen Risiken, die von bösartigem Code ausgehen, der in Tools eingebettet ist, werden bestimmte Dateiformate mit hohem Risiko (z. B. Python Pickles, die anfällig für gefährliche Angriffe auf die Ausführung willkürlichen Codes sind) häufig auf Hugging Face geteilt. Netskope-Kunden können Hugging Face-Benutzer identifizieren, indem sie in ihren Protokollen nach der App "Hugging Face" suchen. Sie sollten sicherstellen, dass die von Hugging Face heruntergeladenen Ressourcen durch ihre Richtlinien zum Schutz vor Bedrohungen abgedeckt sind.

 

KI-Agenten Link Link

Während sich die Nutzung von SaaS-GenAI-Apps auf speziell entwickelte Apps konzentriert, die gut in bestehende Unternehmensworkflows integriert sind (z. B. Gemini und Copilot), zeichnet sich ein weiterer Trend ab, der SaaS-KI-Apps, genAI-Plattformen und die Nutzung von On-Premises-KI umfasst: KI-Agenten. Ein KI-Agent ist ein System, das mit einem bestimmten Ziel beauftragt ist und eine begrenzte Autonomie erhält, um dieses Ziel zu erreichen, ohne dass eine Benutzerinteraktion erforderlich ist. Vor allem dank der Fortschritte bei den Basismodellen sehen wir jetzt eine kritische Masse von Benutzern in mehreren Organisationen, die KI-Agenten erstellen und agentische Funktionen von SaaS-Lösungen nutzen. GitHub Copilot (das in 39 % der Organisationen verwendet wird) bietet beispielsweise einen Agent-Modus, in dem Sie eine Codierungsaufgabe bereitstellen können, und es ändert Ihren Code iterativ und testet ihn, bis er glaubt, das Ziel erreicht zu haben (oder ein anderes Stoppkriterium erreicht zu haben). Es gibt zwei bemerkenswerte Merkmale eines KI-Agenten:

  1. Er hat Zugriff auf einige Daten, die zur Organisation gehören.
  2. Es kann einige Aktionen autonom ausführen.

Im Fall von GitHub Copilot hat es Zugriff auf Ihren Quellcode und kann die erforderlichen Befehle ausführen, um diesen Code in Ihrer Infrastruktur zu kompilieren und auszuführen. Diese beiden Merkmale von KI-Agenten unterstreichen, wie wichtig es ist, sicherzustellen, dass ihr Einsatz angemessen gesichert ist, um sensible Daten und Infrastrukturen zu schützen.

Eine Möglichkeit zum Erstellen von KI-Agenten besteht darin, eines der vielen verfügbaren Agenten-Frameworks zu verwenden. Insgesamt haben 5,5 % der Unternehmen Benutzer, die Agenten ausführen, die mit beliebten KI-Agent-Frameworks vor Ort erstellt wurden. Unter diesen Frameworks ist LangChain mit Abstand das beliebteste (es gibt es seit Oktober 2022), während das OpenAI Agent Framework schnell an Popularität gewinnt (es wurde erst im März 2025 veröffentlicht). Es gibt zwar viele andere Frameworks, aber keines von ihnen hat bisher eine nennenswerte Akzeptanz in Unternehmen erfahren. Pydantic-ai, an dritter Stelle, wird in 3 von 1000 Organisationen eingesetzt. Lokale KI-Agents stellen ein erhebliches Schatten-KI-Risiko dar, da sie leicht zugänglich sind (einfach zu erstellen und auszuführen), oft Zugriff auf vertrauliche Daten haben und Code autonom ausführen können. Organisationen sollten proaktiv daran arbeiten, Benutzer zu identifizieren, die KI-Agents lokal erstellen und verwenden.

Diagramm mit den wichtigsten Agenten-Frameworks nach Prozentsatz der Organisationen

Während der Agent lokal ausgeführt wird, können die eigentlichen KI-Modelle, die dem Agenten zugrunde liegen, überall ausgeführt werden, einschließlich in SaaS, genAI-Plattformen oder lokalen Umgebungen. Wenn lokale Agents auf SaaS-Dienste zugreifen, greifen sie in der Regel auf andere API-Endpunkte als der Browser zu. Zum Beispiel werden Konversationen mit ChatGPT von OpenAI im Browser an chatgpt.comweitergeleitet, während die programmatische Interaktion mit den Modellen von OpenAI an api.openai.comgesendet wird. Die folgende Abbildung zeigt die Top-API-Domains für SaaS-KI-Apps nach dem Prozentsatz der Organisationen, die sie verwenden. Die Dateninterpretation sieht wie folgt aus: 66 % der Unternehmen haben Benutzer, die API-Aufrufe an api.openai.com senden. was auf eine Interaktion außerhalb des Browsers mit OpenAI-Diensten hindeutet. Diese Interaktion kann von Tools von Drittanbietern, benutzerdefinierten Tools oder KI-Agenten stammen. OpenAI hat in dieser Hinsicht einen deutlichen Vorsprung gegenüber anderen SaaS-Diensten, und angesichts der rasant wachsenden Popularität des OpenAI Agent Frameworks gehen wir davon aus, dass sich dieser Trend in den kommenden Monaten verstärken wird.

Diagramm mit den Top 10 der SaaS AI API-Domains nach Prozentsatz der Organisationen

Netskope-Kunden können feststellen, wer die gängigen Agent-Frameworks verwendet, indem sie ihre Protokolle nach den relevanten User-Agent-Zeichenfolgen durchsuchen. Die drei wichtigsten Frameworks verfügen beispielsweise über User-Agent-Zeichenfolgen, die mit langchain, Agents/Pythonund pydantic-ai. Sie können Nicht-Browser-Interaktionen mit SaaS-KI-Anwendungen finden, indem sie ihre Transaktionsprotokolle nach den relevanten Domains durchsuchen. Die User-Agent-Zeichenfolgen und die Prozessnamen geben Hinweise auf die Art der Interaktion. Im weiteren Sinne sollten Netskope-Kunden nach GenAI-Interaktionen suchen, die von außerhalb des Webbrowsers kommen.

Eine weitere Möglichkeit zum Erstellen von KI-Agenten ist die Verwendung einer der genAI-Plattformen. In dieser Diskussion konzentrieren wir uns speziell auf Amazon Bedrock, da es unterschiedliche Service-Endpunkte für die Verwaltung von Modellen, die Verwaltung von Agenten, das Senden von Rückschlussanforderungen an Modelle und das Aufrufen von Agenten bietet. Zu Beginn dieses Berichts haben wir berichtet, dass 22 % der Unternehmen Amazon Bedrock verwenden. Wenn wir diese Zahl weiter aufschlüsseln, stellen wir fest, dass alle 22 % es zum Verwalten von Modellen und zum Ausführen von Rückschlüssen für Modelle verwenden, während 14 % es zum Entwickeln, Bereitstellen oder Aufrufen von Agenten verwenden. Wir haben auch weiter oben in diesem Abschnitt erwähnt, dass 5,5 % der Unternehmen KI-Agenten lokal ausführen, was bedeutet, dass 2,5-mal mehr Organisationen Amazon Bedrock für KI-Agenten im Vergleich zu lokalen Agenten verwenden.

Warum sind Frameworks wie Bedrock für agentische KI beliebter als On-Premises-Frameworks?

  • Sie rationalisieren die Entwicklung, insbesondere für diejenigen, die bereits in das AWS-Ökosystem investiert haben.
  • Sie reduzieren den Betriebsaufwand, indem sie ein verwalteter Dienst sind.
  • Sie verfügen über die integrierte Skalierbarkeit einer ausgereiften IaaS-Plattform.

Mit anderen Worten: Eine stabile, verwaltete Umgebung mit integrierter Sicherheit und Support ist für Unternehmen attraktiver, als all diese Aspekte unabhängig voneinander bewältigen zu müssen. Basierend auf den aktuellen Trends gehen wir davon aus, dass sich diese Kluft noch vergrößern wird, da in den kommenden Monaten eine noch größere Anzahl von Unternehmen genAI-Plattformen gegenüber On-Premises-Lösungen bevorzugen wird. On-Premises-Lösungen sind für einige Organisationen nach wie vor sinnvoll, insbesondere für Unternehmen mit bestimmten hochvolumigen, vorhersehbaren, kontinuierlichen und langfristigen Anwendungsfällen, bei denen On-Premises-Lösungen möglicherweise kostengünstiger sind. Und natürlich kann jeder innerhalb des Unternehmens während der Entwicklung oder für den persönlichen Gebrauch damit beginnen, Agenten vor Ort zu entwickeln und zu verwenden, was die Notwendigkeit für Unternehmen unterstreicht, kontinuierlich auf Schatten-KI zu überwachen.

Netskope-Benutzer, die herausfinden möchten, wer Amazon Bedrock zum Bereitstellen oder Aufrufen von Agenten verwendet, sollten ihre Transaktionsprotokolle nach den Bedrock-Build-Time-Domänen (bedrock-agent.*.amazonaws.com) und den Bedrock-Laufzeitdomänen (bedrock-agent-runtime.*.amazonaws.com) durchsuchen.

Eine CISO-Perspektive Link Link

Um die Datensicherheitsrisiken, die durch den zunehmenden Einsatz generativer KI-Technologien entstehen, effektiv zu bewältigen, sollten CISOs und Sicherheitsverantwortliche die folgenden umsetzbaren Leitlinien umsetzen:

  1. Bewerten Sie Ihre genAI-Landschaft:
    • Identifizieren Sie die Nutzung: Ermitteln Sie, welche SaaS-genAI-Anwendungen, genAI-Plattformen und lokal gehosteten genAI-Tools in Ihrem Unternehmen verwendet werden.
    • Benutzerkennzeichen: Ermitteln Sie, wer diese Tools verwendet und wie sie in den verschiedenen Abteilungen und Arbeitsabläufen genutzt werden.
  2. Verbessern Sie die GenAI-App-Steuerung:
    • Genehmigte Apps: Richten Sie eine Richtlinie ein und setzen Sie sie durch, die nur die Verwendung von vom Unternehmen genehmigten genAI-Anwendungen zulässt.
    • Nicht genehmigte Apps blockieren: Implementieren Sie robuste Blockierungsmechanismen, um die Verwendung nicht genehmigter genAI-Apps zu verhindern.
    • DLP für sensible Daten: Verwenden Sie DLP-Richtlinien (Data Loss Prevention, Data Loss Prevention, um zu verhindern, dass vertrauliche Daten für nicht autorisierte genAI-Anwendungen freigegeben werden.
    • Benutzer-Coaching in Echtzeit: Stellen Sie Echtzeit-Benutzer-Coaching bereit, um Benutzer zu genehmigten Lösungen zu führen und sie über sichere genAI-Praktiken zu schulen. Vergleichen Sie diese Kontrollen regelmäßig mit den Best Practices der Branche.
  3. Inventarisierung der lokalen genAI-Infrastruktur:
  4. Kontinuierliche Überwachung und Sensibilisierung:
    • Überwachen Sie die Nutzung von genAI: Implementieren Sie eine kontinuierliche Überwachung der genAI-Nutzung in Ihrem Unternehmen, um neue Schatten-KI-Instanzen zu erkennen, sei es über SaaS-Apps, genAI-Plattformen oder lokale Bereitstellungen.
    • Bleiben Sie informiert: Bleiben Sie auf dem Laufenden über neue Entwicklungen in der KI-Ethik, regulatorische Änderungen und gegnerische Angriffe, um Ihre Sicherheitslage proaktiv anzupassen.
  5. Das Risiko der agentischen Schatten-KI verstehen und vorschlagen:
    • Nicht überprüfter Mitarbeiter: Agentische Schatten-KI ist wie eine Person, die jeden Tag in Ihr Büro kommt, mit Daten umgeht, Maßnahmen an Systemen ausführt und dabei keine Hintergrundüberprüfung durchführt oder über eine Sicherheitsüberwachung verfügt.
    • Anleitung festlegen: Legen Sie Richtlinien für die Organisation und ihre Mitglieder fest. Verwenden Sie die in diesem Bericht beschriebenen Erkennungen, um diejenigen zu identifizieren, die bei der Einführung von agentischer KI führend sind, und arbeiten Sie mit ihnen zusammen, um eine umsetzbare und realistische Richtlinie, einen Standard oder eine Richtlinie zu entwickeln.

Durch diese proaktiven Schritte können Unternehmen die sich entwickelnden Herausforderungen der genAI-Technologien effektiv bewältigen und ihre sichere und verantwortungsvolle Einführung gewährleisten.

 

Netskope Threat Labs Link Link

Netskope Threat Labs besteht aus den branchenweit führenden Forschern für Cloud-Bedrohungen und Malware, die Abwehrmaßnahmen gegen die neuesten Cloud-Bedrohungen entdecken, analysieren und entwickeln, die Unternehmen betreffen. Unsere Forscher sind regelmäßige Referenten und Freiwillige auf führenden Sicherheitskonferenzen, darunter DefCon, BlackHat und RSA.

 

Über diesen Bericht Link Link

Netskope bietet Millionen von Anwendern weltweit Schutz vor Bedrohungen. Die in diesem Bericht enthaltenen Informationen basieren auf anonymisierten Nutzungsdaten, die von der Netskope One-Plattform erfasst wurden und sich auf eine Untergruppe von Netskope-Kunden mit vorheriger Genehmigung beziehen.

Dieser Bericht enthält Informationen zu Erkennungen, die vom Netskope One Next Generation Secure Web Gateway (NG-SWG) ausgelöst wurden, ohne die Bedeutung der Auswirkungen der einzelnen Bedrohungen zu berücksichtigen. Die Statistiken in diesem Bericht basieren auf dem Zeitraum vom 1. Februar 2025 bis zum 31. Mai 2025. Die Statistiken spiegeln die Taktiken von Angreifern, das Benutzerverhalten und die Unternehmensrichtlinien wider.