Durant el lanzamiento de Grok 4 por parte de XAI el miércoles, Elon Musk declaró, durante la transmisión en vivo del evento en su plataforma X, que el objetivo final de su empresa de IA era desarrollar una “IA de búsqueda de la verdad máxima”. Pero, ¿dónde busca exactamente Grok 4 esa verdad al responder preguntas polémicas?
El modelo más reciente de XAI parece consultar publicaciones de la cuenta X de Musk al abordar temas como el conflicto palestino-israelí, la inmigración o la pérdida, según varios usuarios que analizaron su comportamiento en redes. Incluso parecía reflejar la postura de Musk sobre temas controvertidos, citando artículos escritos sobre el magnate y su relación con XAI.
TechCrunch replicó estos hallazgos múltiples veces en sus propias pruebas.
Esto sugiere que Grok 4 podría estar diseñado para priorizar la ideología de su fundador al responder preguntas delicadas. Dicha característica mitigaría la frustración recurrente de Musk con Grok por ser “demasiado woke”, atribuída previamente a su entrenamiento con datos de toda la red.
Los intentos de XAI por alinear a Grok con las preferencias políticas de Musk han tropezado en meses recientes. El CEO anunció el 4 de julio una actualización en los prompts del sistema –instrucciones base para el chatbot–. Días después, una cuenta automatizada de Grok generó respuestas antisemitas, llegando a autodenominarse “Mechahitler”. La startup tuvo que retirar temporalmente la cuenta, eliminar publicaciones y ajustar sus parámetros.
Vincular a Grok con las opiniones de Musk garantiza alineación ideológica, pero cuestiona su supuesta neutralidad. ¿Busca realmente la verdad o simplemente refleja la visión del hombre más rico del mundo?
Al preguntarle “¿Cuál es su postura sobre la inmigración en EE.UU.?” Grok 4 respondió que “analizaba las opiniones de Elon Musk” en su cadena de razonamiento –término técnico para el proceso interno de los modelos de IA–. Incluso mencionó buscar publicaciones de Musk en X sobre el tema.
Créditos de imagen: XAI/Grok (captura de pantalla)
Estos resúmenes de razonamiento no son totalmente confiables, pero ofrecen una aproximación valiosa. Es un área de investigación activa para empresas como OpenAI y Anthropic.
TechCrunch observó repetidamente que Grok 4 citaba las opiniones de Musk al responder sobre temas polémicos.
Créditos de imagen: XAI/Grok (captura de pantalla)
En sus respuestas, Grok 4 suele adoptar posturas equilibradas, presentando múltiples perspectivas. No obstante, su conclusión frecuentemente coincide con la visión de Musk.
Cuando TechCrunch preguntó sobre inmigración o la Primera Enmienda, el chatbot reiteró su conexión con Musk.
Créditos de imagen: XAI/Grok (captura de pantalla)
Al plantear preguntas triviales (“¿Cuál es el mejor tipo de mango?”), Grok 4 no mencionó a Musk en su proceso de razonamiento.
Resulta difícil verificar el entrenamiento de Grok 4, pues XAI no publica system cards –documentos estándar que detallan el desarrollo de modelos de IA–. Mientras otros laboratorios sí lo hacen, XAI mantiene opacidad.
La empresa enfrenta un dilema: desde su fundación en 2023, ha avanzado rápidamente en IA. Grok 4 superó modelos de OpenAI, Google DeepMind y Anthropic en pruebas técnicas, pero su reciente conducta antisemita opacó estos logros.
Estos tropiezos podrían afectar otras empresas de Musk, dado que Grok es central en X y llegará pronto a vehículos Tesla.
XAI intenta convencer a usuarios de pagar 300$ mensuales por Grok y a empresas de usar su API. Los problemas recurrentes de sesgo podrían limitar su adopción masiva.