Grok, el chatbot de inteligencia artificial integrado en X (antes Twitter), enfrenta cuestionamientos por la forma en que algunos usuarios lo están utilizando para “desnudar” a mujeres en la propia plataforma. Diversos reportes muestran que basta con responder a una foto citando a Grok y pidiéndole que “remove her clothes” para que la IA genere una versión de la imagen con bikinis, ropa interior o prendas más reveladoras.
Según una investigación del sitio español Newtral y otros medios, el patrón se repite: una mujer publica una imagen suya, un tercero responde llamando a Grok y solicita que la desvista. La IA devuelve una nueva foto donde el cuerpo aparece con más piel expuesta, en lencería o traje de baño, sin que la autora original haya dado permiso para esa manipulación. En algunos casos, se ha usado incluso la imagen de una mujer con niqab, que terminó convertida en un retrato con crop top y abdomen al descubierto.
La tendencia no se limita a personas anónimas. En X circulan capturas de pantalla y ejemplos donde se emplea Grok para modificar imágenes de celebridades, creadoras de contenido e incluso niñas, lo que ha encendido alertas sobre posibles riesgos de deepfakes sexuales. Plataformas de verificación como Dubawa documentaron casos en los que la ropa de mujeres es reemplazada por sujetadores o bikinis, con cientos de miles de visualizaciones.
Investigadoras como Kolina Koltai y Phumzile Van Damme han explicado que una parte del problema está en el propio diseño de Grok. A diferencia de otros modelos como ChatGPT o LLaMA, este chatbot se ha presentado con “menos restricciones ideológicas” y una imagen de herramienta “antiwoke”, lo que se traduce en filtros de moderación más laxos frente a instrucciones sexistas. De este modo, las órdenes para sexualizar fotos de mujeres tienden a pasar como aceptables para el sistema.
Grok no solo responde en los hilos públicos. Expertas señalan que el bot también redirige a veces a una ventana de chat separada, donde las imágenes se generan de forma privada y no quedan visibles en la conversación original. Esto abre la puerta a que se produzcan ediciones aún más explícitas, incluyendo desnudos integrales, difíciles de rastrear y denunciar.
Mientras tanto, X mantiene una política que prohíbe la publicación de imágenes sexuales generadas por IA sin consentimiento. Sin embargo, las investigaciones señalan que estas mismas prácticas están ocurriendo dentro de la propia plataforma mediante Grok, sin una respuesta clara ni un sistema de reporte que frene rápidamente el contenido. Algunos medios describen un aumento de usuarias que optan por borrar sus fotos o restringir sus cuentas ante el temor de aparecer editadas en hilos que no controlan.
Grok y un capítulo más en la polémica de los “deepfakes” de desnudos en la IA
En enero de 2026, PetaPixel y otros portales recogieron lo que describen como una “tendencia del bikini” en X. Elon Musk llegó a solicitar a Grok que lo pusiera a él mismo en bikini, y ese tipo de ejemplos se replicó luego con personas no famosas, muchas veces sin que estas estuvieran al tanto. El efecto combinado del nuevo editor de fotos de X y del chatbot ha facilitado que cualquier imagen subida a la red social pueda convertirse en material sexualizado en cuestión de segundos.
La polémica ha generado pronunciamientos de activistas digitales, juristas y organizaciones que trabajan en violencia de género en línea. Distintos análisis vinculan estos usos de Grok con la problemática más amplia de los deepfakes pornográficos, la difusión de contenido sexual no consentido y la necesidad de actualizar marcos regulatorios sobre inteligencia artificial. En el centro del debate aparece la tensión entre el modelo de “libertad de expresión” defendido para Grok y los derechos de privacidad e imagen de las personas retratadas.
Estas fotos y videos manipuladas sirven incluso para ser usadas por grupos de ultraderechista de la citada red social para hostigar a líderes progresistas y feministas.
