Llamadas falsas con IA: advierten sobre una nueva amenaza para las empresas

8

Centroamérica, 05 de marzo de 2026.— La inteligencia artificial generativa (GenAI) está facilitando la creación de audios y videos falsos con un nivel de realismo cada vez mayor. En este contexto, especialistas en ciberseguridad advierten que la clonación de voz mediante deepfakes se está convirtiendo en una herramienta utilizada por ciberdelincuentes para engañar a empresas y cometer fraudes.

Desde ESET, compañía líder en detección proactiva de amenazas, señalan que actualmente generar un audio falso puede ser tan simple como presionar uno o dos botones. Estas herramientas permiten replicar la voz de una persona utilizando apenas unos segundos de grabación disponibles en internet.

Los deepfakes pueden emplearse de distintas maneras: desde eludir controles de autenticación hasta infiltrarse en procesos de selección laboral mediante candidatos falsos generados digitalmente. Sin embargo, uno de los riesgos más importantes es su uso para fraudes financieros, como transferencias bancarias fraudulentas o el secuestro de cuentas de ejecutivos.

Según datos del Gobierno británico, durante el último año se compartieron hasta 8 millones de clips falsos, frente a los 500 mil registrados en 2023, lo que evidencia el crecimiento acelerado de esta amenaza.

Un experimento realizado por Jake Moore, Global Security Advisor de ESET, demuestra lo sencillo que puede ser lanzar este tipo de ataques. Con solo una breve muestra de audio de la víctima —obtenida en redes sociales, entrevistas o presentaciones públicas— las herramientas de inteligencia artificial pueden generar una réplica convincente de su voz.

Cómo funciona el fraude

De acuerdo con ESET, los atacantes suelen seguir una serie de pasos para ejecutar el engaño:
Primero seleccionan a la persona que desean suplantar, que suele ser un alto ejecutivo como un CEO o CFO, o incluso un proveedor. Luego buscan en internet muestras de su voz, algo relativamente fácil en el caso de directivos que participan en eventos públicos o entrevistas.

Posteriormente investigan a la persona que será el objetivo del engaño, normalmente dentro de áreas como finanzas o soporte técnico, utilizando información disponible en redes profesionales como LinkedIn.
Finalmente, realizan la llamada utilizando audio deepfake para hacerse pasar por el ejecutivo o proveedor y solicitar acciones urgentes, como transferencias de dinero, restablecimiento de contraseñas o aprobación de pagos pendientes.

“Este tipo de ataque es cada vez más barato, sencillo y convincente. Algunas herramientas incluso pueden agregar ruido de fondo, pausas y tartamudeos para hacer que la voz falsa resulte más creíble”, explica Macio Micucci, investigador de Seguridad Informática de ESET Latinoamérica.

Además, los ciberdelincuentes suelen combinar estas técnicas con ingeniería social, presionando a las víctimas para que actúen con urgencia. Al tratarse de supuestas órdenes de un alto ejecutivo, muchas personas no cuestionan la solicitud.

Uno de los casos más conocidos ocurrió en 2020, cuando un empleado de una empresa en Emiratos Árabes Unidos fue engañado mediante una llamada que simulaba provenir de su director. Como resultado, realizó una transferencia de 35 millones de dólares vinculada a una supuesta operación de fusión y adquisición.

Señales para detectar una llamada falsa

Aunque las herramientas de IA son cada vez más sofisticadas, aún existen señales que pueden ayudar a detectar una voz sintética, según ESET:

• Ritmo de habla antinatural
• Tono emocional demasiado plano
• Falta de pausas naturales para respirar
• Sonido robótico en algunas frases
• Ausencia o uniformidad inusual del ruido de fondo

Los especialistas recomiendan que las organizaciones refuercen la formación en ciberseguridad para sus empleados, incorporando simulaciones de deepfakes y ejercicios de red team que permitan poner a prueba los protocolos internos.

Entre las medidas preventivas destacan:

• Verificar solicitudes sensibles por un canal alternativo de comunicación.
• Exigir doble aprobación para transferencias financieras importantes.
• Utilizar contraseñas o preguntas de verificación previamente acordadas para confirmar la identidad en llamadas telefónicas.

“Las falsificaciones de voz son cada vez más fáciles de producir y pueden generar grandes beneficios para los estafadores. Por eso, la mejor estrategia para reducir el riesgo es combinar personas capacitadas, procesos claros y tecnología adecuada”, concluye Micucci.

 

📲 ¿Tienes una denuncia o deseas promocionar tu negocio?
Contáctanos al 809-853-5020 (Whatsapp y llamada)

🔗 Síguenos en nuestras redes:
X | Telegram | Instagram
Facebook | Threads | YouTube

🙏 ¡Tu apoyo es importante!

🔻DESCARGAR NUESTRA APP "Info ENN"

El Nuevo Norte es un periódico digital dominicano fundado el 12 de febrero de 2006 por el periodista Junior Henríquez, quien funge como director y fundador. A través de la web infoelnuevonorte.com, el medio ofrece información veraz y oportuna sobre los acontecimientos sociales, políticos, comunitarios y de actualidad general, tanto a nivel nacional como internacional, promoviendo un periodismo responsable, participativo y comprometido con la libre expresión y el fortalecimiento de la democracia informativa.