YouTube está endureciendo sus normas de monetización, centrándose en contenido generado por IA que carece de originalidad o valor para el espectador. Crédito: Natee Meepian’s Images via Canva.com
YouTube no está prohibiendo la IA, pero sí está eliminando contenido de bajo esfuerzo y producido en masa, lo que algunos insider llaman “basura de IA”. A partir del 15 de julio del 2025, los canales que dependan de guiones repetitivos, imágenes genéricas o voces clonadas enfrentarán restricciones de monetización. Plataformas como Netflix, así como nuevos sitios, han sido descubiertos usando atajos de IA para acelerar producción; ahora YouTube está subiendo el nivel.
YouTube está marcando un límite en su contenido que parece creado sin reflexión. Para creadores que difuminan la línea entre asistente de IA y sustituto de IA, las consecuencias serán duras. Las reglas están cambiando, y algunos canales no solo perderán visitas; perderán sus ingresos y visibilidad.
Lo más leído en Euro Weekly News
Los espectadores ya estaban abandonando.
El cansancio hacia el declive de la IA surgió de un estudio global del 2024 por TechSmith, que reveló que un asombroso 90% de los espectadores estaban preocupados por contenido de video generado por IA. Los usuarios mencionaron preocupaciones sobre precisión (45%), mala calidad (24%) y origen poco claro (21%).
Sin embargo, hay una tensión: el 75% estaba abierto a ayuda de IA en videos, sugiriendo que el problema no era la IA en sí, sino contenido mal ejecutado.
Esta contradicción se vio en YouTube, donde su función Shorts se convirtió en un campo de batalla. Según usuarios de Reddit, alrededor del 95% de los shorts eran videos basura de IA, saturando las recomendaciones.
Una investigación de Vox advirtió sobre videos cortos sobrecargando la atención con clips verticales rápidos, parte de contenido generado por IA que desencadenaba, además de erosionar la capacidad de concentración. El mismo estudio encontró que casi la mitad del contenido de YouTube se detuvo, y canales que usaban IA pretendían ser reales, incluyendo toque humano.
Así, YouTube enfrentó un riesgo creciente: las plataformas viven del engagement, pero ¿a qué costo? Los usuarios se desconectaban o expresaban desconfianza. El contenido hecho por IA ganaba clics, pero perdía corazones. Los datos muestran una verdad simple: los espectadores querían IA útil, no bots vacíos.
El nuevo cambio de política de YouTube
Ahora, con el cambio de política del 15 de julio, ese modelo está en riesgo. YouTube deja tres cosas claras:
- El contenido generado por IA debe ser declarado—ya sea visual, voz o guion.
- Voces o rostros clonados de figuras públicas requieren consentimiento o riesgo de eliminación.
- Contenido producido en masa y de baja calidad (incluso si es factual) puede ser desmonetizado.
Las reacciones son mixtas: por un lado, creadores pequeños que usan IA para edición, subtítulos o ayuda en guiones—sin reemplazar el toque humano—apoyan el cambio porque limpia el ruido y da más espacio al contenido humano en el algoritmo.
Sí, el contenido generado por IA seguirá existiendo. Alguno incluso prosperará. Pero, a partir de ahora, tendrá que significar algo. La era del spam sin esfuerzo en autoplay se acaba. Y para quienes aún suban contenido mediocre en masa, el dinero fácil se ha agotado.
Cerrando la brecha de la basura de IA
El cambio de política de YouTube responde al cansancio de usuarios que saltan videos que sí quieren ver. Las herramientas de IA no desaparecerán, pero ya no serán recompensadas solo por existir. Los creadores ahora deben declarar qué es artificial y probar qué es original.
Canales enteros se basan en repetición, saturando la plataforma con contenido que imita utilidad pero no ofrece sustancia. Se prioriza velocidad, así que esto no se trata solo de aplicar reglas, sino de crear espacio para mejor trabajo—y trasladar el problema al siguiente formato. Sin embargo, por primera vez en mucho tiempo, el algoritmo de YouTube no será el único respondiendo a la audiencia; finalmente, la audiencia ha sido escuchada.
