En la era moderna, que da prioridad a la nube, los enfoques tradicionales de la tecnología de protección de datos luchan por mantenerse al día. Los datos crecen rápidamente en volumen, variedad y velocidad. Cada vez son más desestructurados y, por tanto, más difíciles de detectar y, en consecuencia, de proteger. La mayoría de las soluciones DLP actuales se basan únicamente en el análisis de datos textuales para detectar qué datos son sensibles, utilizando patrones regulares de caracteres y técnicas de correspondencia de contenidos aplicadas a tipos de datos "convencionales" (como documentos de Word y hojas de cálculo). Estas técnicas fueron revolucionarias en su día; hoy, se han quedado atrás.
Similarly, traditional zero trust network access (ZTNA) solutions often depend on broad wildcard domains and IP subnets, making secure access management cumbersome and inefficient.
No me malinterprete: es fundamental que la DLP esté equipada con tantas herramientas de análisis de texto como sea posible—al fin y al cabo, si es identificable, lo sensible es el contenido en sí. DLP debe ser capaz de reconocer miles de tipos de datos sensibles conocidos y expresiones regulares no ambivalentes, además de entender datos diferentes específicos de países e idiomas. En aras de la fiabilidad, DLP también debe estar equipada con motores de huellas dactilares de datos muy escalables que puedan memorizar y buscar coincidencias de información específica encontrada en bases de datos y documentos sensibles. El contenido textual debe ser claro y legible para que dichos motores puedan aprovecharlo. Para minimizar los falsos positivos, hoy en día también es fundamental aprovechar el contexto enriquecido, el aprendizaje profundo, el procesamiento del lenguaje natural (NLP) y otras técnicas automatizadas más recientes basadas en ML (aprendizaje automático) e IA.
ZTNA must also adapt to reduce operational overhead and strengthen security by simplifying policy management and configuration audits. Modern business relies on unstructured data like images and screenshots to quickly share information. However, traditional optical character recognition (OCR) struggles with low-quality images and consumes excessive resources, leading to delays and unreliable results. As visual data sharing grows, smarter solutions are needed to accurately identify and protect sensitive information.
To address these challenges, Netskope has pioneered SkopeAI, a suite of AI and ML innovations that revolutionizes both data protection and secure access.
Evolución de la DLP moderna
Para el negocio moderno, la DLP tiene que evolucionar. Piense en la necesidad de una DLP moderna como si funcionara como un cerebro humano. Nuestro cerebro no tiene necesariamente que leer el texto de un documento como una identificación con foto para saber que el documento es en efecto una identificación con foto que contiene datos personales (PII). Ahora, la DLP moderna puede hacer lo mismo.
Para resolver los retos de la DLP moderna, Netskope ha sido pionera en la clasificación de imágenes con ML. Esta técnica hace uso del aprendizaje profundo y las redes neuronales convolucionales (CNN) para identificar con rapidez y precisión imágenes sensibles sin necesidad de extraer texto. Imita el córtex visual humano, reconociendo características visuales como formas y detalles para comprender la imagen en su conjunto (de forma parecida a como podemos reconocer que un pasaporte es un pasaporte sin leer necesariamente los detalles que contiene). El aprendizaje automático permite reconocer características incluso en imágenes de mala calidad, de forma similar a las capacidades del ojo humano. Esto es crucial, ya que las imágenes pueden estar borrosas, dañadas o descoloridas, y aun así contener información sensible.
La importancia de los clasificadores de datos personalizados
Los clasificadores ML de Netskope, líderes del sector, pe