Las estafas mediante voz clonada se han convertido en una de las nuevas modalidades de fraude telefónico más difíciles de detectar. Los delincuentes utilizan inteligencia artificial para imitar la voz de familiares, compañeros de trabajo o representantes de instituciones con el objetivo de obtener dinero o información personal.
Según un informe de la consultora Webster Firts, basta con unos segundos de audio público para replicar una voz de manera convincente. Los estafadores suelen obtener ese material de redes sociales, mensajes de voz o videos difundidos en internet.
En este tipo de fraude, los estafadores emplean software de clonación de voz para recrear el tono y ritmo de una persona conocida por la víctima. Con esa grabación falsa, llaman por teléfono para simular una emergencia o una situación urgente, como un accidente o una solicitud de ayuda económica.
De acuerdo con el portal Help Center, estas llamadas suelen acompañarse de otras tácticas de manipulación: el uso de números telefónicos que aparentan ser legítimos, la creación de un ambiente de presión o miedo, y la exigencia de transferencias inmediatas o entrega de datos personales.
Cuando la víctima accede a las instrucciones, los delincuentes pueden acceder a cuentas bancarias, sustraer dinero o incluso suplantar su identidad.
La Comisión Federal de Comunicaciones de Estados Unidos (FCC, por sus siglas en inglés) advirtió que la clonación de voz mediante inteligencia artificial representa un desafío creciente para la seguridad digital y las telecomunicaciones. Las grabaciones generadas por IA logran imitar detalles específicos de una voz humana, lo que reduce la capacidad de las personas para distinguir entre una llamada real y una fraudulenta.
Webster First señala que estas estafas combinan técnicas tradicionales de “vishing” —phishing a través de voz— con herramientas de inteligencia artificial, lo que eleva su nivel de sofisticación. En muchos casos, las víctimas confían de inmediato porque escuchan una voz que reconocen.
Expertos en ciberseguridad de Norton indican que existen varios signos que pueden ayudar a identificar una llamada sospechosa:
- La llamada proviene de un número desconocido o que aparenta ser local, pero resulta manipulado.
- La persona que llama utiliza un tono de urgencia o insiste en que se actúe de inmediato.
- Se solicita dinero mediante transferencia, criptomonedas o tarjetas prepago.
- Se pide no comentar la llamada con nadie o mantener la conversación en secreto.
- La voz puede tener pausas poco naturales o sonidos extraños, producto de la clonación artificial.
Norton recomienda cortar la comunicación si se sospecha de un intento de fraude y verificar la información por un canal oficial o por un número ya conocido.
Help Center aconseja no compartir información personal ni financiera en llamadas inesperadas, incluso si quien llama parece ser un familiar o colega. En su lugar, se recomienda contactar directamente a la persona por medios habituales antes de tomar cualquier acción.
También se sugiere evitar subir grabaciones de voz a redes sociales, configurar saludos automáticos en buzones de voz sin usar la voz propia y establecer una palabra clave de seguridad con familiares o personas de confianza.
Según Consumer Advice, otra medida útil es activar filtros que bloqueen llamadas de números desconocidos o no registrados en la agenda del teléfono. Además, se recomienda denunciar cualquier intento de fraude ante las autoridades o plataformas de protección al consumidor.
La Comisión Federal de Comunicaciones ha alertado que los fraudes con voz generada por inteligencia artificial están en aumento y evalúa mecanismos para detectar audios falsos en tiempo real. Las empresas de telecomunicaciones también desarrollan sistemas automáticos que analizan patrones de voz y frecuencia para identificar intentos de clonación.
Consumer Advice reporta que las denuncias por llamadas fraudulentas con voces clonadas han crecido durante el último año, principalmente dirigidas a adultos mayores o personas con vínculos laborales expuestos en internet.

