Vídeos Falsos en Circulación
Rafael Nadal ha advertido al público de que se está utilizando inteligencia artificial para crear vídeos falsos que emplean su imagen. El extennista afirmó que estos vídeos muestran a una figura que imita su voz y apariencia mientras ofrece consejos de inversión que él nunca ha proporcionado.
Lo Más Leído en Euro Weekly News
Advertencia en redes sociales
Nadal compartió la advertencia en sus redes sociales, pidiendo a sus seguidores que extremen la precaución. “Junto con mi equipo, hemos detectado que circulan en algunas plataformas vídeos falsos generados por inteligencia artificial”, escribió. “En estos vídeos, se me atribuyen consejos o propuestas de inversión que no proceden de mí. Se trata de publicidad engañosa.”
Hola a todos.
Comparto esta alerta, lo cual es inusual en mí en redes sociales, pero creo que es necesario.
Mi equipo y yo hemos identificado vídeos falsos que circulan en ciertas plataformas, creados con inteligencia artificial, en los que alguien parece tener mi apariencia y voz.…
— Rafa Nadal (@RafaelNadal) 23 de septiembre de 2025
Estafas con ‘deepfakes’ en aumento
Los expertos señalan que este tipo de estafa, conocida como *deepfakes*, está en auge a nivel mundial. Los *deepfakes* utilizan IA para manipular imágenes y audio y hacer que el contenido parezca real, frecuentemente dirigíendose a celebridades y figuras públicas. Otros personajes conocidos afectados incluyen a Mario Casas, Taylor Swift, Rosalía, Pedro Sánchez y Lamine Yamal.
Alerta de ciberseguridad
Especialistas en ciberseguridad advierten que, a medida que avanza la tecnología, resulta más difícil para el usuario promedio detectar vídeos manipulados. Nadal subrayó que no avala ninguno de los mensajes o campañas presentes en los vídeos e instó a la ciudadanía a verificar las fuentes antes de confiar en consejos de inversión en línea.
Mantenerse alerta
La advertencia pone de relieve los crecientes riesgos de las estafas impulsadas por la IA y la necesidad de que los usuarios se mantengan vigilantes.
