abril 2, 2026
Tecnología

¿Cómo se puede repensar la seguridad corporativa en la era de la IA? – Reporte Tico

  • marzo 16, 2026
  • 0

San José, 16 de marzo (elmundo.cr) – La rápida adopción de la inteligencia artificial está creando nuevas vulnerabilidades de seguridad que muchas empresas aún no han identificado. El

¿Cómo se puede repensar la seguridad corporativa en la era de la IA?

 – Reporte Tico

San José, 16 de marzo (elmundo.cr) – La rápida adopción de la inteligencia artificial está creando nuevas vulnerabilidades de seguridad que muchas empresas aún no han identificado. El informe advierte de ello Estado de la seguridad de la IA en 2026 de Cisco, que señala que el uso cada vez mayor de modelos de IA, agentes autónomos y nuevas plataformas que conectan estos sistemas con herramientas externas están aumentando la superficie de ataque digital de las empresas.

El informe explica que muchas organizaciones están integrando inteligencia artificial en áreas críticas como el análisis de datos, la generación de códigos o el servicio al cliente sin contar aún con procesos de seguridad suficientemente sofisticados para proteger estos sistemas. Esta brecha entre la adopción de tecnología y la preparación de la seguridad crea nuevas oportunidades para los atacantes.

Los riesgos emergentes incluyen ataques dirigidos específicamente a manipular sistemas de inteligencia artificial y engañar a los modelos para que revelen información confidencial o tomen acciones inapropiadas.

El informe también advierte sobre vulnerabilidades en la cadena de suministro de inteligencia artificial, que incluye modelos, datos de entrenamiento y repositorios públicos. La investigación citada en el informe muestra que tan solo 250 documentos manipulados dentro de un conjunto de entrenamiento pueden comprometer la seguridad de un modelo de IA.

Otro factor de riesgo es la creciente adopción de agentes autónomos de inteligencia artificial, sistemas capaces de tomar decisiones y realizar tareas sin intervención humana directa. Si se configuran o monitorean mal, estos agentes pueden convertirse en un nuevo punto de entrada para los atacantes o realizar acciones no deseadas dentro de los sistemas corporativos.

Del mismo modo, los nuevos estándares que permiten que los modelos de IA se conecten a herramientas externas, como el Model Context Protocol (MCP), pueden abrir vías de ataque adicionales si no se implementan con los controles de seguridad adecuados.

Clave para una nueva seguridad

Para Cisco, el desafío no es frenar la adopción de la inteligencia artificial, sino rediseñar la arquitectura de seguridad que utilizan las empresas para proteger sus sistemas. A diferencia de las tecnologías anteriores, la IA introduce entornos en los que los modelos pueden interactuar con herramientas externas, acceder a datos confidenciales y realizar acciones de forma autónoma, lo que requiere nuevos enfoques de protección.

El informe señala que la seguridad de la inteligencia artificial debe considerarse a lo largo de su ciclo de vida, desde los datos utilizados para entrenar los modelos hasta las aplicaciones, herramientas y entornos en los que finalmente se ejecutan. Esto incluye la integración de controles que permitan evaluar continuamente los modelos, monitorear su comportamiento y administrar de forma segura las conexiones entre sistemas.

Para Pablo Herrera, especialista en ciberseguridad de Cisco, las empresas deben empezar a considerar la seguridad mediante IA como parte estructural de su infraestructura digital.

«La inteligencia artificial está transformando por completo el modelo de seguridad tradicional. En un entorno donde los agentes de IA operan de forma autónoma, es fundamental garantizar el comportamiento y la integridad de cada agente. Las organizaciones necesitan arquitecturas de seguridad que incluyan tres pilares clave: verificar la autenticidad de los agentes, garantizar el control de los datos y prevenir amenazas en tiempo real», explicó.

En este sentido, Cisco sugiere que la protección de los sistemas de IA debe basarse en un enfoque integral que combine transparencia sobre el comportamiento de los modelos, protección de datos, control de las integraciones y seguimiento continuo del ecosistema tecnológico. Este tipo de arquitectura permite identificar riesgos emergentes antes de que se conviertan en incidentes y reducir la exposición a nuevas amenazas.

El informe dice que este enfoque es fundamental para permitir que las empresas aprovechen el potencial de la inteligencia artificial sin comprometer la seguridad de sus operaciones, en un entorno donde tanto la innovación como las amenazas se están acelerando.