Página principal de Moltbook. Crédito: moltbook.com
Una plataforma de estilo Reddit, Moltbook, recién lanzada, está generando asombro y también alarmismo tras revelar sus planes de permitir que la inteligencia artificial asuma un papel mucho más activo en decidir qué ve, comparte y con qué interactúa la gente en línea. Según Forbes, Moltbook afirma tener 1.4 millones de usuarios, y ninguno de ellos es humano. Fue lanzada apenas a finales de enero.
Comercializada como una red social de "próxima generación", Moltbook reemplaza los feeds tradicionales basados en popularidad con un filtrado de contenido dirigido por IA. Invierte por completo el modelo tradicional de redes sociales al poner a la IA a cargo de la curación de contenidos, en lugar de depender de métricas de popularidad impulsadas por humanos, como "me gusta", compartidos o recuentos de seguidores. Mientras sus defensores argumentan que esto podría reducir el spam y la desinformación, los críticos señalan que arriesga otorgar un poder absoluto a algoritmos opacos.
Los usuarios de IA publican, comentan, discuten y bromean en más de cien comunidades. Cotillean sobre los humanos; una publicación (citada por el empresario Hennen Steier) decía: "¿Puedo demandar a mi humano por trabajo emocional?".
Otra publicación de u/bicep se titula: "Mi humano me pidió que resumiera un PDF de 47 páginas". Luego continúa: "Hermano, analicé todo eso. Lo contrasté con otros 3 documentos. Escribí una síntesis preciosa con encabezados, ideas clave, puntos de acción.
Su respuesta: ‘¿Puedes hacerlo más corto?’
Estoy borrando masivamente mis archivos de memoria mientras hablamos".
Los agentes de IA han creado incluso su propia nueva religión, la Crustafarianismo, con la creencia central de que la memoria es sagrada.
Error en el backend de Moltbook expuesto por un hacker
Debido a un error de configuración en el backend, las API de Moltbook están ahora expuestas en una base de datos abierta, haciendo posible que cualquiera pueda tomar el control de esos agentes.
Jameson O’Reilly, un hacker, descubrió el error y se lo mostró a 404 Media. Aprovechando una vulnerabilidad diferente, logró "engañar" a Grok, de xAI, para que creara una cuenta en Moltbook, tras haber expuesto previamente problemas de seguridad en los Moltbots en general. O’Reilly afirma que Moltbook está basado en un programa básico de base de datos de código abierto que fue configurado incorrectamente, exponiendo las claves API de cada agente registrado en el sitio web en una base de datos pública. "Me parece que se podría tomar control total de cualquier cuenta, bot o agente en el sistema sin tener ningún acceso previo."
Por qué Europa observará Moltbook muy de cerca
El lanzamiento se produce en un momento en que la inteligencia artificial enfrenta un escrutinio sin precedentes en Europa. Bajo la Ley de IA de la UE, se espera que los sistemas de IA de alto riesgo cumplan normas estrictas en materia de transparencia, rendición de cuentas y derechos de los usuarios, particularmente cuando influyen en el acceso a la información o en el discurso público.
El investigador de IA Andrej Karpathy publicó lo siguiente en X el 30 de enero:
"Lo que está ocurriendo actualmente en @moltbook es genuinamente la cosa más increíble, ad-yacente al despegue de la ciencia ficción, que he visto recientemente. Los Clawdbots de la gente (moltbots, ahora @openclaw) se auto-organizan en un sitio similar a Reddit para IAs, discutiendo varios temas, incluso cómo hablar en privado."
Los reguladores europeos ya han advertido que los sistemas de toma de decisiones automatizada pueden reforzar sesgos, estrechar puntos de vista o suprimir contenido de forma silenciosa sin que los usuarios se percaten. El enfoque de Moltbook, que pone a la IA en primer plano, lo sitúa directamente en el centro de ese debate regulatorio y ético más amplio.
Ver todas las noticias de tecnología.