una nueva amenaza para las empresas – Reporte Tico
- marzo 9, 2026
- 0
San José, 9 de marzo (elmundo.cr) – La IA generativa (GenAI) ha democratizado la creación de archivos de audio y video falsos al punto que crear un clip
San José, 9 de marzo (elmundo.cr) – La IA generativa (GenAI) ha democratizado la creación de archivos de audio y video falsos al punto que crear un clip
San José, 9 de marzo (elmundo.cr) – La IA generativa (GenAI) ha democratizado la creación de archivos de audio y video falsos al punto que crear un clip falso es tan fácil como presionar uno o dos botones. Los deepfakes se pueden utilizar de diversas formas: desde eludir la autenticación y los controles hasta infiltrarse en las organizaciones creando un candidato falso y sintético para los procesos de selección de personal. Sin embargo, podría decirse que la mayor amenaza que plantean es el fraude financiero/transferencias bancarias y Secuestro de ejecutivos. ESETlíder en detección proactiva de amenazas, ofrece herramientas para detectar si una llamada es falsa.
Él El gobierno británico confirma que el año pasado se compartieron hasta 8 millones de clips falsos, en comparación con los 500.000 compartidos en 2023. El número real podría ser mucho mayor y, teniendo esto en cuenta, las organizaciones tienden a subestimar esta amenaza.
Como se ha demostrado un experimento Según Jake Moore, asesor de seguridad global de ESET, lanzar un ataque de audio deepfake nunca ha sido tan fácil. Todo lo que se necesita es un breve clip de la víctima que se va a falsificar y GenAI puede hacer el resto. Según ESET, así es como podría funcionar un ataque:
«Este tipo de ataque es cada vez más barato, más fácil y más convincente. Algunas herramientas son incluso capaces de insertar ruido de fondo, pausas y tartamudeos para hacer la voz imitada más creíble. Cada vez imitan mejor los ritmos, tonos y tics verbales de cada hablante. Y cuando se lanza un ataque por teléfono, puede ser más difícil para la persona que responde detectar errores relacionados con la IA». advierte Macio Micucci, investigador de seguridad informática de ESET Latinoamérica.
Los atacantes también pueden utilizar tácticas de ingeniería social, como presionar a la persona para que responda urgentemente a su solicitud para lograr sus objetivos. Si a esto le sumamos el hecho de que a menudo se hacen pasar por altos ejecutivos, es fácil entender por qué algunas víctimas son engañadas. Uno de los mayores errores ocurrió en 2020 cuando un empleado por una empresa en los Emiratos Árabes Unidos al creer que su director había llamado para solicitar una transferencia de fondos de 35 millones de dólares para una transacción de fusión y adquisición.
Sin embargo, hay formas de detectar a un estafador. Desde ESET afirman que dependiendo de lo sofisticada que sea la GenAI que utilicen podrá detectar:
Además, desde el punto de vista de empresa, es recomendable empezar a formar y concienciar a los empleados. Según ESET, estos programas deberían actualizarse para incluir simulaciones de audio deepfake para garantizar que los empleados sepan qué esperar, qué está en juego y cómo comportarse. Se les debe enseñar a reconocer los signos reveladores de la ingeniería social y los escenarios típicos de deepfake. Para comprobar si los empleados dominan el proceso correcto, se deben realizar ejercicios del equipo rojo:
«Las falsificaciones son simples y cuestan poco producirlas. Dadas las enormes sumas de dinero que los estafadores pueden robar, es poco probable que veamos el fin de las estafas de clonación de voz en el corto plazo. Por lo tanto, la mejor opción que tiene una empresa para mitigar el riesgo es un enfoque triple basado en las personas, los procesos y la tecnología. Para adaptarse a los avances de las innovaciones en IA, es importante que se revisen periódicamente. Lo nuevo». Panorama del fraude cibernético requiere atención constante”. concluye Micucci de ESET.