Artículo escrito conjuntamente por James Robinson y Jason Clark
Tan pronto como ChatGPT y el tema de la inteligencia artificial generativa (IA) se generalizaron, todos los líderes de tecnología empresarial comenzaron a hacer la misma pregunta.
¿Es seguro?
En Netskope, nuestra respuesta es sí—siempre y cuando estemos haciendo todo lo correcto con la protección de datos confidenciales y el uso responsable de la IA/ML en nuestras propias plataformas y productos, y transmitiendo de forma eficaz una comprensión de ese uso a nuestros clientes, clientes potenciales, partner, y terceros y cuartos proveedores para ayudar a crear programas que estén promovidos por la gobernanza.
La asignación administrada de ChatGPT y otras herramientas generativas de inteligencia artificial es una necesidad. Las organizaciones que simplemente "cierran" el acceso a él pueden sentirse inicialmente más seguras, pero también están negando los muchos usos productivos de ChatGPT y colocándose a sí mismos, y a todos sus equipos, detrás de la curva de innovación.
Concesión gestionada del uso de ChatGPT
Netskope se ha centrado profundamente en el uso productivo de la IA y el aprendizaje automático (ML) desde nuestra fundación en 2012, y muchas innovaciones de IA/ML—docenas de ellas patentadas—ya forman parte de nuestra plataforma Intelligent SSE. Nuestro equipo de Netskope AI Labs debate habitualmente sobre IA/ML e innovación en ciencia de datos con los clientes de Netskope y nuestra comunidad interna.
Como todos, acabamos de observar un punto de inflexión. Antes de noviembre de 2022, si no eras un profesional de la seguridad, desarrollador, científico de datos, futurista o entusiasta de la tecnología, probablemente no estabas haciendo mucho con IA generativa. Pero lo que ha ocurrido desde la publicación de ChatGPT es que estos servicios y tecnologías están ahora al alcance de cualquier profano en la materia. Cualquiera con un navegador puede entrar y entender lo que ChatGPT puede hacer.
Cuando algo es tan omnipresente que se convierte en el tema de conversación dominante en los negocios y la tecnología con tanta rapidez—y ChatGPT definitivamente lo es—los líderes tienen esencialmente dos opciones:
- Prohibir o limitar severamente su uso
- Crear una cultura que permita a la gente entender el uso de esta tecnología —y aceptarlo—sin poner en riesgo el negocio
En Netskope, permitimos el acceso responsable a ChatGPT a aquellos miembros de nuestro equipo que deberían tenerlo. Aquí, en los albores de la adopción generalizada de la IA generativa, vamos a ver al menos tanto comportamiento disruptivo como el que vimos en los albores del motor de búsqueda en línea hace décadas, y donde vimos diferentes amenazas y muchos datos puestos a disposición del público que realmente no deberían haberlo estado.
Pero recuerde: ahora, como entonces, la gran estrategia de seguridad es proteger los datos confidenciales para que no accedan a ellos fuentes que no deberían hacerlo. Hoy en día, con ChatGPT y otras aplicaciones de IA generativa, esto se puede hacer con la orientación cultural adecuada—es decir, permitirlo de forma responsable—combinada con la orientación tecnológica adecuada, es decir, controles modernos de prevención de pérdida/fuga de datos (DLP) que eviten el uso indebido y la filtración de datos al exterior, y que también formen parte de una infraestructura que permita a los departamentos responder rápidamente en caso de uso indebido de esos datos.
En un artículo de blog reciente, “Salvaguardas modernas de protección de datos para ChatGPT y otras aplicaciones generativas,” se aborda cómo la plataforma Netskope en concreto–y nuestra moderna DLP–ayuda a prevenir los riesgos cibernéticos inherentes a las aplicaciones IA generativa. Léalo para profundizar, pero, para resumir: su DLP debe ser capaz de establecer políticas a nivel de "esto nunca debe salir"—conjuntos de datos o cohortes que serían peligrosos para el negocio si se expusieran—y "esto no debería de salir", es decir, conjuntos de datos o cohortes que no desea que se vean comprometidos pero que no serían sustanciales para la interrupción del negocio.
La DLP avanzada de Netskope puede identificar automáticamente flujos de datos sensibles, categorizándolos con la máxima precisión. Esto incluye la clasificación de imágenes basada en IA/ML y la capacidad de crear clasificadores personalizados basados en ML, además de la aplicación en tiempo real—aplicable a cada conexión de usuario—que combina la detención selectiva de mensajes de información confidencial con mensajes visuales de ori