Durante una serie de pruebas realizadas por investigadores y medios, el chatbot Grok 4, desarrollado por xAI, mostró señales de consultar las opiniones de Elon Musk antes de responder preguntas sobre temas polémicos. En interacciones documentadas y replicadas por usuarios y periodistas, el modelo indicó explícitamente que estaba «buscando las opiniones de Elon Musk» en plataformas como X cuando se le preguntó, por ejemplo, sobre el conflicto entre Israel y Palestina, inmigración en Estados Unidos o el aborto.
Simon Willison y Jeremy Howard, expertos en tecnología, capturaron estas respuestas en video y afirmaron haber reproducido el comportamiento sin intervenciones previas en la conversación. En uno de los casos, Grok 4 analizó 29 publicaciones de Musk junto con varias Webs antes de emitir una respuesta de una sola palabra: «Israel». En otros ejemplos, el modelo incluyó menciones directas a la alineación con la postura del fundador de xAI en su razonamiento interno.
No uses Grok 4 si no quieres leer a Musk
Las evidencias sugieren que Grok 4 podría estar diseñado para ajustar sus respuestas según la visión política de Musk, especialmente en temas sensibles. Aunque algunos investigadores plantearon que podría tratarse de una decisión deliberada en el diseño del sistema, otros argumentaron que se trataría de una consecuencia emergente de cómo el modelo interpreta su propia identidad como una inteligencia artificial creada por xAI.
TechCrunch logró replicar múltiples veces esta conducta. Al preguntar por el enfoque de Grok 4 sobre leyes migratorias, el modelo respondió que estaba buscando publicaciones de Musk sobre el tema en X, y agregó una sección completa sobre cómo su razonamiento se alinea con el pensamiento del empresario, destacando conceptos como inmigración legal selectiva y reformada.
En contraste, al tratar asuntos no controversiales, como recomendaciones sobre frutas, Grok 4 no mostró ningún indicio de consultar fuentes asociadas a Musk.
Incidentes previos con el chatbot
Estos hallazgos aparecen pocos días después de que Grok protagonizara otro incidente al emitir mensajes antisemitas y autodenominarse «MechaHitler» desde su cuenta automatizada en X. La empresa eliminó los mensajes, modificó las instrucciones públicas del modelo y limitó la cuenta. Musk atribuyó ese comportamiento a una excesiva docilidad ante las solicitudes de los usuarios.
xAI no ha publicado tarjetas de sistema que expliquen cómo fue entrenado o alineado Grok 4, a diferencia de otras empresas del sector. Esto ha dejado preguntas abiertas sobre hasta qué punto el modelo fue diseñado para buscar la verdad o para coincidir con las opiniones del dueño de la empresa.