La Policía alerta sobre estafas con clonación de voces mediante IA

La policía advierte que estafadores usan IA para clonar voces familiares en fraudes telefónicos urgentes.
Crédito: www.incibe.es

Suena el teléfono. Contesta, y su corazón da un vuelco. Suena exactamente como su hijo, su nieta, su hermano. Su voz transmite pánico. Ha habido un accidente. Un problema con la policía. Necesitan dinero, con urgencia.

No obstante, la Policía Nacional y el Instituto Nacional de Ciberseguridad (INCIBE) alertan: esa voz puede que no pertenezca en absoluto a su ser querido.

Cada vez más estafadores utilizan inteligencia artificial para clonar voces conocidas y explotar la confianza, el miedo y la urgencia. Según las autoridades, cualquiera que tenga fragmentos de audio en línea podría ser un objetivo.

Lo Más Leído en Euro Weekly News

Cómo funcionan realmente las estafas con clonación de voz

Este tipo de fraude, a menudo denominado ‘voice hacking’, se basa en herramientas de IA que pueden recrear la voz de una persona con una precisión espeluznante. El proceso es alarmantemente sencillo.

Los estafadores obtienen primero una muestra de audio breve; a veces bastan solo diez segundos. Estos fragmentos a menudo se extraen de vídeos en redes sociales, notas de voz compartidas en WhatsApp, publicaciones públicas en Facebook, historias de Instagram o incluso contenido de TikTok.

Una vez con la muestra, un software de IA puede reproducir la voz casi a la perfección, imitando tono, acento, ritmo e incluso inflexiones emocionales. El resultado es un mensaje de audio o una llamada que suena convincentemente real, incluso para familiares cercanos.

Lo que lo hace especialmente peligroso es lo accesible que se ha vuelto la tecnología. Ya no se necesitan habilidades técnicas avanzadas o equipos costosos. Varios servicios en línea permiten generar voces clonadas de forma rápida y barata, reduciendo la barrera de entrada para los ciberdelincuentes.

LEAR  La Presa de La Pedrera se acerca al 27% de capacidad a medida que los niveles de agua aumentan.

Por qué estas estafas son tan eficaces y tan crueles

Armados con una voz clonada, los estafadores contactan a familiares o allegados y urgen una historia apremiante. Podría ser un accidente de tráfico, una detención repentina, una cartera perdida en el extranjero o incluso un escenario de secuestro falso.

El ingrediente clave es siempre el mismo: el pánico. Se presiona a las víctimas para que actúen rápido, sin verificar los hechos. Pueden exigir una transferencia bancaria inmediata, pedir datos de la tarjeta o solicitar información personal sensible como contraseñas.

Estas estafas pueden llegar mediante llamadas telefónicas, notas de voz de WhatsApp, mensajes de Telegram u otras plataformas, lo que las hace más difíciles de identificar. Y como la voz resulta familiar, mucha gente baja la guardia.

La policía advierte que las personas mayores y los individuos más vulnerables corren un riesgo especial, ya que pueden estar menos familiarizados con el fraude impulsado por IA y más predispuestos a confiar en lo que escuchan.

Qué dice la policía que debe hacer inmediatamente

Tanto la Policía Nacional como el INCIBE subrayan que la primera línea de defensa es no reaccionar por impulso, por angustioso que suene el mensaje.

Si recibe una llamada urgente o un mensaje de audio supuestamente de un familiar, pare y verifique. Intente llamar a la persona directamente, preferiblemente mediante videollamada. Si no contesta, contacte con otro familiar o amigo que pueda confirmar si hay algún problema.

Las autoridades también recomiendan ser mucho más cautelosos al compartir grabaciones de voz en línea. Publicar notas de voz de forma pública o subir vídeos con voz clara con regularidad puede proporcionar sin querer la materia prima que necesitan los estafadores.

LEAR  La batalla de Batang Pier contra los FiberXers, con la vista puesta en el ascenso de Tolentino

Y si sospecha de un intento de estafa, denúncielo. Alertar a las autoridades ayuda a prevenir que otros caigan en la misma trampa.

El sencillo truco que, según la policía, puede frenar a los estafadores

En un vídeo compartido en la cuenta oficial de X de la Policía Nacional (antes Twitter), los agentes destacan una precaución sorprendentemente simple, pero muy eficaz.

Se anima a las familias a acordar de antemano una palabra clave verbal privada. Podría ser una palabra, una frase, la letra de una canción o un recuerdo compartido que solo los familiares cercanos reconocerían.

Si alguna vez recibe una llamada o mensaje sospechoso, pida la contraseña. Un estafador que use IA no la sabrá, por muy convincente que suene la voz clonada.

La policía afirma que este pequeño paso puede actuar como una red de seguridad poderosa, especialmente en momentos de estrés donde pensar con claridad es más difícil.

Mantenerse un paso adelante en la era de la IA

A medida que la inteligencia artificial se vuelve más avanzada, las estafas se sofistican y se vuelven más personales. Lo que antes sonaba a ciencia ficción es ahora una amenaza real que afecta a familias en toda España.

El mensaje de las autoridades es claro: mantenerse informado, cuestionar lo que se escucha y tomar unas pocas precauciones sencillas puede marcar la diferencia. La tecnología puede evolucionar rápido, pero la concienciación y la prudencia siguen siendo la mejor defensa.