San José, 5 de febrero (elmundo.cr) – La discusión global sobre la protección de la información cobra hoy una nueva dimensión. Esto se debe al acelerado desarrollo de la inteligencia artificial (IA), particularmente en aplicaciones como: ChatbotsLos copilotos empresariales y los sistemas de análisis avanzados están cambiando la forma en que las empresas recopilan, procesan y utilizan datos, afirman varios especialistas de SASun proveedor líder de datos, análisis avanzado e inteligencia artificial.
Para SAS, las preocupaciones ya no se limitan a prevenir filtraciones o ciberataques. Pero la IA conlleva riesgos menos visibles pero igualmente críticos. Estos incluyen el uso prolongado de datos más allá de su propósito original, la inferencia de información sensible que nunca fue compartida explícitamente y la dificultad de explicar cómo los modelos generan resultados y toman decisiones. En este contexto, la protección de datos se convierte en una piedra angular para mantener la confianza digital.
La privacidad como base de la confianza en la IA
Según Marinela Profi, líder de estrategia de mercado global de IA e IA generativa de SAS, la rápida adopción de soluciones de IA en múltiples industrias está revelando nuevos dilemas que van más allá de los modelos tradicionales de protección de datos.
“Sectores como los servicios financieros, el comercio minorista y la banca están presionando para que se implemente Chatbots Impulsados por la IA y los copilotos empresariales, los desafíos surgen con la misma rapidez en las áreas de protección de datos, transparencia y confianza. «Estos sistemas pueden revelar inadvertidamente datos confidenciales, inferir información que nunca se compartió explícitamente o desdibujar la línea entre el uso aceptable de datos públicos y privados», explicó Profi.
El experto advierte que, si bien las organizaciones han utilizado herramientas como datos sintéticos para mitigar los riesgos de privacidad en el pasado, la IA presenta un desafío diferente. El objetivo es comprender cómo los modelos almacenan, infieren y revelan información durante las interacciones diarias, incluso a partir de señales emocionales o contextuales.
«A medida que la IA potencia cada vez más la toma de decisiones y la creación de contenidos, los usuarios quieren saber cómo se entrenan los modelos, cómo se generan los resultados y quién es el propietario final de los datos e incluso de los «recuerdos» que se crean en el proceso», añadió Profi.
Teniendo esto en cuenta, SAS está impulsando la necesidad de una arquitectura de protección de datos moderna y basada en derechos que integre transparencia, gobernanza y supervisión humana en los flujos de trabajo de IA. Esto tiene como objetivo evitar la divulgación involuntaria de datos, los riesgos de inferencia y la erosión de la confianza de los usuarios.
El desafío del ciclo de vida de los datos
Por su parte, Manisha Khanna, Global Product Marketing Lead for AI & Analytics de SAS, mencionó que la protección de datos ha evolucionado significativamente en los últimos años. Tradicionalmente la atención se ha centrado en el acceso. Específicamente, se trata de quién puede recopilar los datos, quién puede utilizarlos y cómo se protegen. Sin embargo, la IA desafía este enfoque porque extiende la vida útil de los datos mucho más allá de lo que se pretendía originalmente.
«La IA plantea una pregunta que muchas organizaciones aún no han respondido: ¿Cuándo caducan los datos? Muchos sistemas de IA continúan tomando decisiones basadas en información que en la práctica ya debería haber caducado. Por ejemplo, datos recopilados para un propósito específico bajo ciertas suposiciones y consentimientos, y años después silenciosamente reutilizados para entrenar modelos completamente nuevos», explicó Khanna.
Según el portavoz, este problema no se debe necesariamente a una violación de seguridad o un ciberataque, sino más bien a un punto ciego de la gobernanza. Añadió que la mayoría de los sistemas de inteligencia artificial empresariales están diseñados para retener datos y no reconocer cuándo ya no son relevantes, apropiados o legítimos para su uso.
«A medida que la IA se integra en las decisiones comerciales críticas, las empresas deben repensar la gestión del ciclo de vida de los datos. Una IA responsable depende no sólo de proteger la información, sino también de comprender cuándo ha perdido su contexto, legitimidad o lugar en el sistema», enfatizó Khanna.
La contribución de SAS a la protección de datos responsable
Frente a estos desafíos, SAS promueve un enfoque integral hacia la IA responsable y la privacidad desde el diseño, respaldado por soluciones que permiten a las empresas gestionar, auditar y gobernar el uso de datos y modelos de IA a lo largo de su ciclo de vida.
Las soluciones de SAS integran funciones de gobernanza, explicabilidad, gestión de riesgos y control de acceso a datos, facilitando a las empresas el cumplimiento de las regulaciones de protección de datos, fortaleciendo la transparencia y manteniendo la supervisión humana de los procesos automatizados. Este enfoque no sólo reduce los riesgos legales y reputacionales, sino que también aumenta la confianza de los clientes, empleados y socios en el uso ético de la tecnología.
SAS Llama a las organizaciones a ampliar su visión sobre la protección de la información y comprender que la protección de datos es un factor clave para la innovación responsable.