julio 13, 2025
Tecnología

¿Conoces los riesgos de seguridad cibernética asociados con esta nueva tecnología?

  • mayo 7, 2025
  • 0

SAN JOSÉ, 06 de mayo (Elmundo.CR) – La rápida adopción de la inteligencia artificial (IA) en dispositivos móviles marca el inicio de una nueva era en la innovación

¿Conoces los riesgos de seguridad cibernética asociados con esta nueva tecnología?

SAN JOSÉ, 06 de mayo (Elmundo.CR) – La rápida adopción de la inteligencia artificial (IA) en dispositivos móviles marca el inicio de una nueva era en la innovación tecnológica. Sin embargo, esta integración también trae consigo un aumento considerable de los riesgos relacionados con la ciberseguridad. A medida que la tecnología avanza, se vuelve crucial que tanto los usuarios como las empresas comprendan los desafíos que esto implica, así como las mejores prácticas para salvaguardar su privacidad y la integridad de sus datos.

Según un análisis realizado por los expertos del grupo de datos Costa Rica, existen múltiples desafíos que los usuarios de dispositivos móviles deben considerar con el fin de prevenir ataques cibernéticos y asegurar la protección de su información. Especialmente relevante es el hecho de que los ciberdelincuentes están utilizando herramientas de inteligencia artificial para ejecutar ataques más sofisticados y difíciles de detectar, lo que exige que los usuarios adopten medidas más rigurosas en cuanto a su ciberseguridad.

“El aumento de la inteligencia artificial en dispositivos móviles introduce una serie de riesgos cibernéticos que van mucho más allá de los ataques convencionales. Uno de los tipos de ataques más preocupantes son aquellos relacionados con la ingeniería social, que se han perfeccionado mediante el uso de tecnologías generativas. Esto incluye phishing hiperrealista y mensajes automatizados que simulan conversaciones humanas de manera convincente,” señaló Cristopher Leandro, especialista en el Grupo Daten.

Los retos más significativos también abarcan brechas en la protección de datos, dado que muchos modelos de IA son capaces de recopilar y procesar grandes volúmenes de información personal sensible. Esto incluye el riesgo de manipulaciones de datos, donde los modelos pueden ser contaminados o maliciosamente entrenados con información incorrecta, además de la posibilidad de un acceso no autorizado a causa de vulnerabilidades en aplicaciones que incorporan IA. Muchas de estas aplicaciones aún carecen de estándares técnicos de validación y seguridad adecuados, lo que agrava la situación.

“Estos riesgos convierten a los dispositivos móviles en un objetivo primordial para los actores maliciosos, tanto por su uso generalizado como por la cantidad de datos que estos generan y almacenan. Nos indican que los desafíos ocasionados por la inteligencia artificial son muy relevantes tanto para los consumidores como para las corporaciones. Por ello, estudios recientes sobre el desarrollo de IA en diversos mercados han subrayado que la falta de seguridad se vuelve cada vez más crítica,” agregó Leandro.

En el contexto de la ciberseguridad y con el uso creciente de dispositivos de IA, se ha vuelto crucial que las organizaciones fortalezcan sus medidas de protección. Un 66% de las empresas, según la Perspectiva Global de Ciberseguridad 2025, considera que la inteligencia artificial tendrá el mayor impacto en su ciberseguridad este año. Sin embargo, solamente se ha implementado el 37% de los procesos necesarios para evaluar la seguridad de estas herramientas antes de su lanzamiento, dejando a millones de usuarios expuestos a nuevas vulnerabilidades, especialmente en el ámbito móvil.

“El teléfono inteligente se ha convertido en el principal acceso a la vida digital. Con la información generativa disponible en dichos dispositivos, los atacantes pueden utilizar la misma tecnología para llevar a cabo campañas de phishing y suplantación de identidad más creíbles y automatizadas,” comentó un experto en la materia.

De acuerdo con el informe, el 72% de las organizaciones ha notado un incremento en los riesgos cibernéticos, mientras que el 47% de estas amenazas es atribuible a adversarios que utilizan inteligencia artificial. En América Latina, la situación es aún más alarmante: el 42% de las organizaciones en la región carecen de confianza en la capacidad de sus países para responder a incidentes cibernéticos de gran envergadura.

“En América Latina existe un déficit significativo en materia de resiliencia cibernética. Esto se ve exacerbado por la fragmentación normativa, la escasez de talento especializado y una elevada dependencia de complejas cadenas de suministro tecnológicas,” enfatizó Leandro.

Ante este panorama, los expertos del Grupo Daten aconsejan adoptar un enfoque de ciberseguridad desde la etapa de desarrollo y uso de aplicaciones móviles que integren inteligencia artificial. También resaltan la importancia de implementar mecanismos de autenticación multifactorial robustos, particularmente en aplicaciones críticas como la banca, la salud y servicios gubernamentales, donde el reconocimiento facial, la voz, o el comportamiento del usuario puedan ser utilizados.

“La autenticación biométrica no es infalible si no es complementada con técnicas de validación adicionales. Además, la inteligencia artificial puede ser vulnerada mediante ataques que reemplazan patrones biométricos si no se aplican controles avanzados contra el fraude,” enriqueció el experto.

Desde la perspectiva del usuario final, el grupo DataSys recomienda mantener actualizados los sistemas operativos y las aplicaciones móviles, descargar aplicaciones únicamente de tiendas oficiales, desconfiar de enlaces sospechosos y mensajes automatizados, y utilizar herramientas de protección en tiempo real, como antivirus que incluyan funciones de análisis basadas en IA.

Finalmente, la compañía enfatiza que la capacitación continua es un pilar vital en la defensa contra los riesgos cibernéticos. “No basta con la tecnología; es esencial fomentar una cultura digital consciente. Cada individuo es un eslabón en la cadena de ciberseguridad. Las empresas y los gobiernos deben invertir en educación para concientizar sobre los riesgos que trae consigo el uso de herramientas de inteligencia artificial, tanto para sus empleados como para los ciudadanos. Es necesario acompañar al usuario en este proceso de manera proactiva,” concluyó.