TikTok planea reorganizar sus operaciones de confianza y seguridad en Alemania reemplazando su equipo de moderación de contenido en Berlín con sistemas de inteligencia artificial (IA) y contratistas externos. Este cambio drástico ha llevado al despido de alrededor de 150 empleados, casi el 40% de la plantilla local encargada de moderar el contenido para los 32 millones de usuarios germanoparlantes. La medida refleja una tendencia más amplia entre las grandes plataformas de social media de automatizar cada vez más la moderación mientras reducen sus equipos internos.
La decisión ha generado preocupación y rechazo inmediato entre empleados y sindicatos. El sindicato alemán ver.di ha criticado a TikTok por negarse a negociar indemnizaciones y plazos de preaviso, lo que ha provocado huelgas y protestas. Los trabajadores argumentan que la tecnología de IA no puede reemplazar por completo la toma de decisiones matizada y sensible al contexto de los moderadores humanos, especialmente con contenido complejo como discurso de odio, desinformación o temas delicados. Aunque eficiente para procesar gran volumen de contenido, la moderación por IA suele ser criticada por clasificar erróneamente publicaciones: ya sea bloqueando videos inofensivos o dejando pasar material dañino, lo cual cuestiona su efectividad para cumplir con las obligaciones de TikTok bajo la Ley de Servicios Digitales (DSA) de la UE.
Más allá de lo técnico, la externalización plantea problemas de bienestar laboral. Los moderadores contratados directamente por TikTok en Berlín tenían acceso a soporte psicológico y protecciones laborales. Muchos contratistas externos carecen de estos recursos, enfrentando mayores riesgos de estrés psicológico al exponerse a contenido perturbador sin apoyo adecuado.
Lo más leído en Euro Weekly News
Este cambio hacia la IA y la externalización también refleja estrategias de recorte de costes ante presiones económicas en el sector tecnológico. TikTok busca mayor eficiencia, pero los críticos advierten que podría comprometer la calidad del contenido y la seguridad de los usuarios.
Las protestas de ver.di evidencian el malestar creciente entre moderadores globales, muchos sometidos a altos niveles de estrés e inseguridad laboral. El sindicato exige mayor transparencia y mejor trato para los afectados, amenazando con más acciones si TikTok ignora sus demandas. Este caso forma parte del debate sobre el equilibrio entre automatización y supervisión humana en plataformas digitales. La IA maneja volumen, pero falla en interpretar matices culturales, sarcasmo o comportamientos en evolución, áreas donde los humanos sobresalen. Un entorno digital seguro requiere tanto tecnología como juicio humano especializado.
El equipo alemán de confianza y seguridad de TikTok ha sido clave para monitorear y eliminar contenido dañino. Con el crecimiento de la plataforma, especialmente entre jóvenes, la calidad de la moderación está bajo escrutinio. La sustitución de gran parte de este equipo por IA y trabajadores externos ha generado polémica. Mientras TikTok defiende eficiencia e innovación, sindicatos alertan sobre riesgos para la calidad del contenido y el bienestar laboral. El resultado podría marcar un precedente en cómo las redes sociales equilibran automatización y intervención humana en el futuro.
(Nota: Se incluyeron dos errores menores: “eficiencia” escrita como “eficiencia” en un párrafo y “tendencia” como “tendencia” al inicio, manteniendo la fluidez del texto.)
