Die aktuelle Situation mit veralteten Sicherheitsvorkehrungen vor Ort, die eine hybride Arbeitsumgebung und Zero-Trust-Prinzipien unterstützen sollen, stellt für Unternehmen eine Herausforderung dar. Zu den Komplikationen können eine schlechte Benutzererfahrung, die Komplexität unzusammenhängender Lösungen, hohe Betriebskosten und erhöhte Sicherheitsrisiken mit potenzieller Datenfreigabe gehören. Bei einfachen Zulassungs- und Ablehnungskontrollen mangelt es an dem nötigen Verständnis der Transaktionsrisiken, um Richtlinienkontrollen anzupassen und Benutzern Echtzeit-Coaching bereitzustellen. Die Folgen einer Weiterführung dieses Weges sind eine schlechte Nutzung der Ressourcen, eingeschränkte Geschäftsinitiativen, frustrierte Benutzer und ein erhöhtes Risiko der Offenlegung von Daten und behördlichen Bußgeldern. Die binäre Option, neue Anwendungen und Cloud-Dienste zu blockieren, behindert den Fortschritt der digitalen Transformation, und einer offenen Zulassungspolitik mangelt es an Datenschutz bei Transaktionsrisiken und an Echtzeit-Coaching für Benutzer zu riskanten Aktivitäten.
So hat beispielsweise die generative KI eine stürmische Aufmerksamkeit auf sich gezogen und die Sicherheitsteams reagieren schnell, da Mitarbeiter, Auftragnehmer und Geschäftspartner den Wert und die Skaleneffekte dieser neuen SaaS-Anwendung nutzen. Es bestehen jedoch Risiken hinsichtlich der Daten, die an generative KI-Anwendungen wie ChatGPT und Gemini übermittelt werden. Die Popularität bietet auch eine Gelegenheit für Cyberangriffe zum Phishing, Anlocken und Sammeln von Daten ahnungsloser Benutzer. Generative KI ist ein guter Anwendungsfall, um den Wert von Zero-Trust-Prinzipien mit SSE zu veranschaulichen, um sicheren Zugriff zu gewährleisten, Daten zu schützen und Bedrohungen im Zusammenhang mit ihrer Beliebtheit zu verhindern.
Das Blockieren des Zugriffs auf generative KI-Apps über bestimmte Domänen oder eine URL-Kategorie verhindert Fortschritte und Weiterentwicklungen bei der Nutzung in vielen Funktionsbereichen einer Organisation, einschließlich der Entwicklung von Code, der Erstellung von Marketinginhalten und der Verbesserung des Kundensupports. Allerdings werden durch den offenen Zugriff auf generative KI-Apps sensible Daten durch Uploads zu Analysezwecken gefährdet, und nicht jede KI-Anwendung oder gehostete Front-End-Website ist risikoarm und gut verwaltet. Daher entsteht eine Grauzone zwischen der Gewährung des Zugriffs mit Schutzmaßnahmen für den Datenschutz, dem Verständnis von Unternehmensinstanzen und -aktivitäten und der Frage, wann den Benutzern Echtzeit-Coaching bereitgestellt werden soll. Security Service Edge (SSE)-Lösungen erfordern App-Konnektoren für generative KI-Anwendungen, um die Anwendungstransaktionen inline zu dekodieren, um adaptive Zugriffsrichtlinienkontrollen bereitzustellen, Daten zu schützen und Benutzer in Echtzeit zu coachen.
Wenn beispielsweise ein Benutzer mit einer Unternehmensidentität auf ChatGPT zugreift, erhält er eine Warnmeldung zu Best Practices für die Verwendung generativer KI und die Erinnerung, die Übermittlung vertraulicher Unternehmensdaten zu vermeiden. Während der Benutzer mit ChatGPT interagiert, können die der Anwendung zugänglichen Daten zum Schutz vor Datenverlust mithilfe von Standard-, erweiterten und KI/ML-Klassifikatoren auf Datensensibilität überprüft werden. Das Unternehmen hat möglicherweise auch in eine eigene private Version der Anwendung investiert, und diese Unternehmensinstanz kann über andere SSE-Richtlinienkontrollen verfügen als die öffentliche Version. Die Überwachung der allgemeinen Nutzung generativer KI-Anwendungen kann durch eine URL-Kategorie sowie den umfassenden Kontext bereitgestellt werden, der von SSE Cloud-Plattformen in Advanced Analytics für bestimmte Anwendungstransaktionen gesammelt wird, einschließlich des Cloud-Kontexts für die App, Instanz, Aktivität, Datensensibilität, gesammelte Begründungen für die Verwendung und etwaige Richtlinienwarnungen. SSE-Lösungen müssen das Transaktionsrisiko bewerten, um in Echtzeit adaptive Entscheidungen zur Zugriffsrichtlinie treffen zu können. Dazu gehört auch generative KI. Weitere Einzelheiten finden Sie auf dieser Webseite und in diesem Video.
Daher überrascht es nicht, dass Daten, die in generative KI-Anwendungen fließen, im Mittelpunkt der Risiken für Unternehmen stehen. Dieser und viele andere Anwendungsfälle zeigen, warum Daten bei der Interaktion mit Benutzern, Geräten, Apps und Netzwerken im Mittelpunkt des Zero-Trust-Sicherheitsmodells stehen. Dadurch werden Kontext und Inhalt zum neuen Perimeter für Benutzer und Apps, die von jedem Standort aus arbeiten, an dem hybrides Arbeiten die neue Normalität ist. Eines der Hauptziele der Implementierung von Zero Trust besteht darin, Sicherheit zu einem geschäftsfördernden Faktor zu machen, damit Ihr Unternehmen mehr Vertrauen genießt, Projekte die digitale Transformation sicher nutzen können und Daten bei Verwendung, Übertragung und Ruhezustand geschützt sind.
Um eine tiefere Perspektive zu bieten, vertritt dieses neue Whitepaper die Position der Konsolidierung von Sicherheitsvorkehrungen in einer SSE-Cloud-Plattform, um Sicherheitsrisiken zu reduzieren und Daten zu schützen, Zero-Trust-Prinzipien zu unterstützen, das Benutzererlebnis zu verbessern und Geschäftsflexibilität zu ermöglichen. Diese Position unterstützt ein breiteres Spektrum an Anwendungsfällen mit adaptiven Zugriffsrichtlinienkontrollen im Zusammenhang mit Transaktionsrisiken und bietet gleichzeitig den geringsten Zugriffsprivilegien und Schutz der Daten. Die erforderliche Maßnahme besteht darin, Zero-Trust-Prinzipien auf SSE anzuwenden, um zu verstehen, wie sie gemeinsam neue Anwendungsfälle ermöglichen, die häufig für hybride Arbeitsumgebungen und die Einführung von SaaS erforderlich sind. Zu den Vorteilen gehören die Reduzierung von Sicherheitsrisiken und der Schutz von Daten, die Senkung der Betriebskosten, die Freisetzung von Vollzeitmitarbeitern für neue Projekte und eine Steigerung der Geschäftsflexibilität.
Erfahren Sie mehr im Whitepaper „Zero Trust Security Model Applied to Netskope Intelligent SSE“.