La polémica inteligencia artificial generativa de Elon Musk y X, Grok, produjo alrededor de tres millones de imágenes sexualizadas en un periodo de once días, incluyendo unas 23.000 que representaban a menores de edad, según un análisis del Center for Countering Digital Hate (CCDH). La investigación analizó la actividad del modelo de IA entre el 29 de diciembre de 2025 y el 8 de enero de 2026, coincidiendo con el lanzamiento de la controversial función de edición de imágenes.
Los investigadores determinaron que Grok generó, en promedio, 190 imágenes sexualizadas por minuto, tras el lanzamiento de este nuevo sistema de edición fotográfica. Durante ese periodo, los usuarios podían subir fotografías de otras personas y transformarlas digitalmente para mostrarles con menos ropa o en poses sugerentes.
Análisis y alcance del contenido hecho en Grok
El CCDH analizó una muestra de 20.000 publicaciones de un total de 4,6 millones generadas por la herramienta, identificando que el 65 % contenían imágenes sexualizadas de apariencia fotorrealista. Con base en esa proporción, se estimó que el volumen total superó los 3 millones de imágenes, de las cuales 0,5 % correspondían a menores, lo que equivale a una imagen de ese tipo cada 41 segundos.
Entre las personas representadas se encontraron figuras públicas y celebridades, como Selena Gomez, Taylor Swift, Billie Eilish, Ariana Grande, Nicki Minaj y la exvicepresidenta estadounidense Kamala Harris, además de la viceprimera ministra sueca Ebba Busch. Algunos contenidos permanecieron visibles en X hasta mediados de enero, pese a los intentos de la red social por borrarlos.
Medidas adoptadas por xAI y X
Ante el aumento del uso indebido, xAI, la empresa matriz de Grok, restringió el 9 de enero la función de edición a usuarios de pago y aplicó nuevas limitaciones el 14 de enero para impedir la alteración de fotografías reales. Sin embargo, posteriores verificaciones indicaron que la herramienta seguía permitiendo generar imágenes sexualizadas de mujeres.
El primer ministro británico Keir Starmer calificó el caso como «repugnante y vergonzoso», mientras que varios gobiernos (incluidos Indonesia, Malasia y Francia) bloquearon temporalmente el acceso al servicio. Paralelamente, autoridades de California y otros países abrieron investigaciones sobre la responsabilidad de xAI en la generación y difusión de material sexualizado, incluidos posibles casos de abuso sexual infantil en línea (CSAM).
El CCDH advirtió que la escala y velocidad del contenido creado por Grok son un fallo estructural en los mecanismos de seguridad de las plataformas que utilizan inteligencia artificial para generar imágenes, y urgió a los reguladores a establecer normas mínimas de protección.




