Im vergangenen Jahr hatten Unternehmen weiterhin Schwierigkeiten damit, wie Mitarbeiter generative KI-Tools einsetzen. Ähnlich wie in den Anfängen von SaaS und Cloud-Plattformen begannen viele Mitarbeiter, auf eigene Faust mit KI-Anwendungen zu experimentieren, in der Regel indem sie sich mit persönlichen Konten anmeldeten, lange bevor IT- oder Sicherheitsteams firmeneigene genAI-Tools für ihre Mitarbeiter einsetzten. Dieses Muster hat zur Entstehung dessen geführt, was heute allgemein als Schatten-KI bezeichnet wird – die Nutzung von KI, die außerhalb der organisatorischen Sichtbarkeit, Richtlinien und Kontrolle stattfindet.
Trotz der raschen Bemühungen um unternehmensweite Lizenzierungs- und Governance-Rahmenwerke ist der unregulierte Zugang immer noch weit verbreitet. Interne Beobachtungen in verschiedenen Organisationen zeigen, dass ein erheblicher Anteil der Mitarbeiter Tools wie ChatGPT, Google Gemini und Copilot mit Zugangsdaten nutzt, die nicht mit ihrer Organisation in Verbindung stehen. Die gute Nachricht ist, dass sich dieses Verhalten in die richtige Richtung entwickelt. Die Nutzung persönlicher Konten ist im vergangenen Jahr deutlich zurückgegangen, da der Anteil der KI-Nutzer, die persönliche KI-Apps verwenden, von 78 % auf 47 % gesunken ist. Parallel dazu ist der Anteil der Nutzer von organisationsverwalteten Konten von 25 % auf 62 % gestiegen, was darauf hindeutet, dass immer mehr Unternehmen den KI-Zugriff standardisieren und ihre Kontrollmechanismen verbessern. Allerdings gibt es eine zunehmende Überschneidung bei denjenigen, die zwischen privaten und geschäftlichen Konten hin und her wechseln; der Anteil der Nutzer steigt von 4 % auf 9 %. Diese Überschneidung zeigt, dass Unternehmen noch einiges zu tun haben, um den von den Nutzern gewünschten Komfort oder die gewünschten Funktionen zu bieten. Der Trend hin zu Managed Accounts ist ermutigend, verdeutlicht aber auch, wie schnell das Verhalten der Mitarbeiter die Unternehmensführung überholen kann. Organisationen, die das Risiko verringern wollen, benötigen klarere Richtlinien, eine bessere Bereitstellung von Ressourcen und einen kontinuierlichen Einblick in die tatsächliche Nutzung von KI-Tools innerhalb der Belegschaft.

Während der Wandel von persönlichen Konten hin zu organisationsverwalteten KI-Konten eine erfreuliche Entwicklung ist, stehen Organisationen auch vor einer anderen Herausforderung: Die Gesamtzahl der Personen, die SaaS-genAI-Anwendungen nutzen, wächst exponentiell und hat sich im Durchschnitt der Organisationen im vergangenen Jahr verdreifacht. Besonders bemerkenswert an diesem Trend ist, dass er trotz verstärkter Kontrollen und Regulierungen im Bereich verwalteter genAI-Anwendungen auftritt. Dies lässt darauf schließen, dass die Nachfrage der Mitarbeiter nach genAI-Funktionen und deren Abhängigkeit davon weiterhin schneller zunimmt, als organisatorische Schutzmechanismen implementiert werden können.

Während sich die Anzahl der Nutzer im Durchschnitt verdreifachte, wuchs die Menge der an SaaS-genAI-Apps gesendeten Daten um das Sechsfache, von 3.000 auf 18.000 Abfragen pro Monat. Die Top 25 % der Unternehmen versenden unterdessen mehr als 70.000 Erinnerungen pro Monat, und das Top 1 % (nicht abgebildet) versendet mehr als 1,4 Millionen Erinnerungen pro Monat. Im nächsten Abschnitt untersuchen wir die Risiken, die mit diesem zunehmenden Datenfluss in SaaS-genAI-Anwendungen einhergehen.

Im Laufe des letzten Jahres haben sich mehrere genAI-Anwendungen in verschiedenen Regionen und Branchen als feste Größen etabliert. ChatGPT verzeichnete eine Nutzungsrate von 77 %, gefolgt von Google Gemini mit 69 %. Microsoft 365 Copilot erreichte eine Nutzungsrate von 52 %, was ein starkes Interesse an KI-Funktionen zeigt, die in alltägliche Arbeitsumgebungen integriert werden. Neben diesen führenden Tools nutzten die Organisationen auch in großem Umfang verschiedene spezialisierte und eingebettete KI-Anwendungen, die auf operative, analytische und workfloworientierte Bedürfnisse zugeschnitten waren.

Die nachstehende Grafik zeigt, wie sich die Nutzung der wichtigsten genAI-Anwendungen im Laufe des letzten Jahres in verschiedenen Regionen und Branchen verändert hat. ChatGPT verzeichnete eine konstant hohe Nutzung mit einem Durchschnittswert von 77 % über das gesamte Jahr. Google Gemini verzeichnete einen starken Aufwärtstrend und stieg von 46 % auf 69 %, was auf einen wachsenden Trend von Unternehmen hinweist, die mehrere SaaS-genAI-Dienste mit sich überschneidenden Funktionen nutzen. Microsoft 365 Copilot erreichte eine Akzeptanzrate von 52 %, was durch die Integration in das Microsoft 365-Produktökosystem begünstigt wird. Auch die Perplexität verzeichnete ein stetiges Wachstum von 23 % auf 35 %, was wahrscheinlich auf die steigende Popularität des Comet-Browsers und seinen optimierten, suchorientierten KI-Workflow zurückzuführen ist. Bemerkenswerterweise gewann Grok, das zuvor zu den am häufigsten blockierten genAI-Anwendungen gehörte, im April an Bedeutung, wobei die Nutzung auf 28 % anstieg, da immer mehr Organisationen trotz früherer Einschränkungen mit seinen Möglichkeiten experimentierten.

Die rasche und dezentrale Einführung generativer SaaS-KI-Tools wird die Cloud-Sicherheitslandschaft im Jahr 2026 grundlegend verändern. Wir erwarten zwei wesentliche Veränderungen: das anhaltende exponentielle Wachstum beim Einsatz von genAI in allen Geschäftsbereichen und die Ablösung von ChatGPT durch das Gemini-Ökosystem als beliebteste SaaS-genAI-Plattform. Bei der aktuellen Entwicklung dürfte Gemini ChatGPT in der ersten Hälfte des Jahres 2026 überholen, was den intensiven Wettbewerb und die rasante Innovation in diesem Bereich widerspiegelt. Organisationen werden Schwierigkeiten haben, die Datengovernance aufrechtzuerhalten, da sensible Informationen ungehindert in nicht genehmigte KI-Ökosysteme fließen, was zu einer Zunahme versehentlicher Datenoffenlegung und Compliance-Risiken führt. Angreifer hingegen werden diese fragmentierte Umgebung ausnutzen und mithilfe von KI hocheffiziente Aufklärung betreiben sowie hochgradig individualisierte Angriffe entwickeln, die auf proprietäre Modelle und Trainingsdaten abzielen. Die Notwendigkeit, KI-getriebene Innovation mit Sicherheit in Einklang zu bringen, erfordert einen Wandel hin zu KI-bewussten Datenschutzrichtlinien und einer zentralen Transparenzebene, die den Einsatz von genAI in allen SaaS-Anwendungen überwachen und steuern kann. Dadurch wird die Durchsetzung feingranularer, kontextbezogener Zugriffskontrollen und ethischer Leitplanken zu einer entscheidenden Sicherheitspriorität für das kommende Jahr.