Seit der Einführung von ChatGPT im November 2022 hat generative KI (genAI) eine schnelle Akzeptanz in Unternehmen erfahren. Laut Forschern der Netskope Threat Labs verwenden im Juni 2024 erstaunliche 96 % der Organisationen verschiedene Arten von GenAI-Apps. Diese weitverbreitete Einführung verändert die Arbeitsweise von Unternehmen, doch mit viel Macht geht auch viel Verantwortung – und Risiko – einher.
Das zweischneidige Schwert der GenAI
GenAI bietet zahlreiche Vorteile. Beispielsweise revolutionieren GenAI-Tools die Produktivität, indem sie bei der Codierung, Inhaltserstellung und Datenanalyse helfen. Diese Tools können sich wiederholende Aufgaben automatisieren, Innovationen fördern und Mitarbeitern neue Möglichkeiten bieten, die Effizienz und Kreativität steigern. Allerdings bringt die umfassende Nutzung von GenKI auch erhebliche Risiken mit sich, die ein aufmerksames Management erfordern.
Der neue KI-Bericht von Netskope Threat Labs betont mehrere Bedenken hinsichtlich der Datensicherheit und des Missbrauchs von KI-Technologien. Eines der dringendsten Probleme ist der Datenverlust.
Unter Datenlecks versteht man die Weitergabe vertraulicher Informationen an GenAI-Tools, die zu unbeabsichtigten Datenlecks führen, wertvolles geistiges Eigentum preisgeben und die Sicherheit proprietärer Systeme gefährden. Der Bericht zeigt, dass die gemeinsame Nutzung von proprietärem Quellcode mit genAI-Anwendungen für 46 % aller von der DLP-Plattform von Netskope identifizierten Verstöße gegen die genAI-Datenrichtlinie verantwortlich ist.
Stellen Sie sich ein Szenario vor, in dem ein Softwareentwickler bei einem multinationalen Technologieunternehmen eine GenAI-App zur Codeoptimierung verwendet. Ohne es zu merken, gibt der Ingenieur ein Stück proprietären Code weiter, der vertrauliche Algorithmen enthält. Auf diesen Code könnten unbefugte Parteien zugreifen, was zu potenziellen Datenschutzverletzungen und Wettbewerbsnachteilen führen könnte.
(Mehr über einige dieser Probleme erfahren Sie hier in dieser Folge des Podcasts „Security Visionaries“, in der die IP-Anwältin Suzanne Oliver, CISO Neil Thacker und AI Labs-Leiter Yihua Liao die Auswirkungen von KI diskutieren.)
Allgemeine Empfehlungen:
Zum Schutz vor diesen Risiken sollten Unternehmen:
→ Überprüfen Sie regelmäßig die Aktivität, Trends, Verhaltensweisen und Datensensibilität von KI-Apps, um potenzielle Bedrohungen zu identifizieren
→ Blockieren Sie den Zugriff auf Apps, die keinen legitimen Geschäftszwecken dienen oder ein unverhältnismäßiges Risiko darstellen
→ Verwenden Sie Richtlinien zur Verhinderung von Datenverlust, um Inhalte/Eingabeaufforderungen mit vertraulichen Informationen zu erkennen, darunter Quellcode, regulierte Daten und Passwörter.
Balance zwischen Innovation und Sicherheit
Während GenAI für Effizienz und Innovation sorgt, wird derzeit darüber diskutiert, wie der Einsatz bestimmter GenAI-Anwendungen richtig kontrolliert werden sollte. Viele versuchen beispielsweise herauszufinden, ob die Sperrung des Zugriffs auf bestimmte Anwendungen – etwa GitHub Copilot – wirklich eine geeignete Sicherheitsmaßnahme darstellt oder ob der Preis für den Verlust der Produktivitätsvorteile zu hoch ist.
Und diese Bedenken sind berechtigt. Das Blockieren solcher Anwendungen ist möglicherweise nicht der beste Ansatz. Vielmehr sollten Unternehmen den Netskope Cloud Confidence Index (CCI) zu Rate ziehen, um auf der Grundlage ihrer Sicherheits- und Compliance-Profile zu entscheiden, welche Anwendungen zugelassen und welche eingeschränkt werden sollen. Die Bewertung von Apps erfolgt anhand objektiver Kriterien, die den Leitlinien der Cloud Security Alliance entnommen sind. Diese Kriterien messen die Unternehmensbereitschaft von Apps und berücksichtigen dabei Sicherheitsnachweise, Überprüfbarkeit und Geschäftskontinuität.
Zum Zeitpunkt des Schreibens dieses Artikels verfügt GitHub Copilot über einen hohen CCI-Score von 80 (von 100; bedenken Sie, dass diese Zahl dynamisch ist), was auf eine überdurchschnittliche Vertrauenswürdigkeit hinweist. Allerdings haben 19 % der Organisationen, die GenAI-Anwendungen verwenden, GitHub Copilot vollständig verboten. Anstatt eine pauschale Sperre zu verhängen, könnten Unternehmen durch die Implementierung feingranularerer Kontrollen zur Überwachung der Nutzung und Sicherstellung der Datenkonformität von den Möglichkeiten der Daten profitieren und gleichzeitig die Risiken minimieren.
Die Zukunft im Blick
Generative KI birgt ein unglaubliches Potenzial, Innovation und Effizienz in Unternehmen voranzutreiben. Allerdings ist es wichtig, sich der damit verbundenen Risiken bewusst zu sein und an ihrer Verringerung zu arbeiten. Durch das Verständnis der Bedrohungen – etwa Datenlecks und Deep Fakes – und die Implementierung robuster Sicherheitsmaßnahmen können Unternehmen die Leistungsfähigkeit von genAI sicher nutzen.
Bleiben Sie informiert und sicher. Lesen Sie den vollständigen Bericht der Netskope Threat Labs, um Ihr Unternehmen mit dem Wissen auszustatten, das es braucht, um die Zukunft der KI zu meistern. Greifen Sie hier auf den vollständigen Cloud- und Bedrohungsbericht zu: KI-Apps im Unternehmen.