Red Seguridad 112

red seguridad primer trimestre 2026 161 sobre la mesa Patrocina Copatrocina fueron diseñados. En definitiva, permite demostrar un tratamiento lícito y transparente de forma continua. La visibilidad, por sí sola, no basta. DSPM para IA debe integrarse con prevención de pérdida de datos, controles web y protecciones en endpoint o navegador para que la postura se convierta en política. Así se pueden controlar datos sensibles en salidas, impedir que información inapropiada entre en prompts, contener herramientas en la sombra y frenar la exfiltración. El objetivo es cerrar el ciclo, del descubrimiento a la denegación, de forma automática. Muchos incidentes empiezan con un simple pegado. Por eso conviene combinar DSPM con controles de navegador para detectar datos sensibles en prompts, alertar o bloquear en tiempo real y orientar a los usuarios hacia datos enmascarados o sintéticos. Además, incluso los modelos bien entrenados pueden inferir o regenerar contenido sensible. De ahí la necesidad de clasificar los repositorios que alimentan chatbots e inspeccionar las salidas en busca de datos regulados o de alto impacto, registrando, justificando o bloqueando antes de que el dato salga de canales aprobados. Las extensiones y sitios no sancionados son puntos ciegos por diseño. DSPM para IA debe revelar qué servicios utilizan las personas en entornos gestionados y correlacionar ese uso con repositorios sensibles. La prioridad debe situarse allí donde coinciden IA no aprobada y datos de alto valor. A medida que la IA se extiende por correo, web y SaaS, se multiplican las rutas de exfiltración. Por eso, el contexto de DSPM debe alimentar controles posteriores para vigilar movimientos, aplicar políticas en tiempo real y centrarse en eventos de pérdida real. La exactitud de la clasificación es decisiva, porque en IA el contexto puede convertir una frase aparentemente inocua en un dato regulado. Una mala clasificación provoca dos problemas: un bloqueo excesivo que perjudica la productividad o un riesgo omitido que termina filtrando datos. La clasificación con IA, como AI Mesh de Forcepoint, que combina modelos semánticos, clasificadores de machine learning y técnicas basadas en patrones, permite captar el significado a escala. Si la clasificación es correcta, todo el stack funciona mejor; si falla, todo lo que viene después se degrada. Da igual que se trate de ChatGPT, Microsoft Copilot o LLM personalizados; las preguntas de fondo son las mismas: qué puede ver cada herramienta, cómo usa esos datos y adónde fluyen las salidas. DSPM para IA permite estandarizar este control, definiendo qué fuentes puede indexar cada plataforma, asegurando repositorios bien clasificados y con accesos adecuados, y monitorizando interacciones para detectar anomalías. La política puede ser única, aunque la aplicación tenga que adaptarse a distintas plataformas. Evolución en paralelo La IA no se va a frenar, así que la gobernanza tampoco puede hacerlo. Los agentes autónomos, la integración más profunda en flujos de trabajo y los casos de uso en tecnología operacional introducirán nuevas clases de riesgo. DSPM para IA evolucionará en paralelo, con capacidades más ricas en tiempo real, vínculos más estrechos con la gobernanza y MLOps, y una cobertura cada vez mayor sobre servicios, plugins y agentes. Hoy, el enfoque debe ser claro: inventariar casos de uso y fuentes, ejecutar una evaluación de DSPM centrada en la exposición de IA y priorizar barandillas para repositorios y flujos de alto impacto. No se trata de elegir entre ir rápido y estar seguro. DSPM para IA es precisamente la forma de conseguir ambas cosas. Con visibilidad precisa, clasificación acertada y aplicación integrada, las organizaciones pueden escalar la IA con confianza y mantener los datos sensibles donde deben estar. Con disciplina operativa, métricas claras y formación continua, el programa gana además resiliencia y credibilidad sostenibles ante auditorías y crisis.

RkJQdWJsaXNoZXIy MTI4MzQz