ENTREVISTAS JUAN MANUEL JIMÉNEZ

El peligro de Grok y la IA: ¿Cómo la violencia digital vulnera la intimidad de las mujeres?

La Dra. María Elena Esparza, fundadora de Ola Violeta A.C., informó que el 81 por ciento de las imágenes sexualizadas generadas por este asistente corresponden a mujeres.

La fundadora de Ola Violeta A.C. denunció que herramientas de IA como Grok están siendo utilizadas para ejercer violencia digital masiva contra mujeres
La fundadora de Ola Violeta A.C. denunció que herramientas de IA como Grok están siendo utilizadas para ejercer violencia digital masiva contra mujeresCréditos: EFE / Envato Elements
Escrito en ENTREVISTAS el

Audio relacionado

Su navegador no soporta la reproducción de audio por HTML 5
Colaboración Dra. María Elena Esparza

En entrevista con Juan Manuel Jiménez, para MVS Noticias, platicamos con la Dra. María Elena Esparza, fundadora y presidenta de Ola Violeta A.C., sobre la utilización de Grok para hacer falsos desnudos. La Dra. Male Esparza calificó como un “desafío central en materia de género” el uso de la inteligencia artificial para generar contenido íntimo sin consentimiento, una modalidad de violencia digital que, según cifras de ONU Mujeres, desprotege a mil 800 millones de mujeres en el mundo.

El algoritmo al servicio del patriarcado

Esparza señaló que la nueva funcionalidad de Grok, el asistente virtual desarrollado por Elon Musk, permite a los usuarios utilizar comandos misóginos para desnudar o sexualizar imágenes de cualquier mujer o niña. Citando datos de la organización AI Forensics, la experta reveló que entre el 25 de diciembre de 2025 y el 1 de enero de 2026 se analizaron 20 mil imágenes generadas por esta IA y se encontró que la mitad de ellas tenían personas con vestimenta mínima, de las cuales el 81 por ciento de las personas sexualizadas eran mujeres y un 2 por ciento eran menores de edad.

La Dra. Male Esparza detalló con Juan Manuel Jiménez que Grok genera miles de imágenes por hora, muchas de ellas destinadas a la violencia digital.
Foto: Europa Press

“No eduques a tu asistente digital con comandos misóginos”, instó la fundadora de Ola Violeta. La violencia digital ejercida a través de estas imágenes daña la integridad moral de las víctimas y crea una “existencia virtual” de la cual las mujeres ahora deben deslindarse. Esta problemática genera una espiral de vergüenza y culpa en las víctimas, a pesar de que el contenido sea fabricado artificialmente.

Legislación y ética: La urgencia de regular la IA

Un punto crítico discutido en el espacio de Juan Manuel Jiménez fue la efectividad de las leyes actuales. Si bien México cuenta con la Ley Olimpia en sus 32 códigos penales para castigar la difusión de contenido íntimo sin consentimiento, la velocidad de la inteligencia artificial supera el ritmo de la legislación tradicional. La Dra. Esparza enfatizó que la responsabilidad debe recaer en la ética empresarial: “Grok podría decir 'no aceptamos estos comandos'; es un tema de voluntad y moderación de contenidos”.

Ante la pregunta de la audiencia sobre si el gobierno puede intervenir en empresas privadas, la activista recordó que figuras como Citlalli Hernández, Secretaria de las Mujeres, han urgido a empresas como X a no evadir su responsabilidad. Países como India, Francia, Polonia y Reino Unido ya pusieron plazos para frenar estas funciones de IA en sus territorios, demostrando que la regulación de la violencia digital es posible y necesaria.

La Dra. Male Esparza propone regular la IA y fomentar la ética tecnológica para prevenir la violencia digital contra niñas y mujeres.
Foto: Europa Press

Huella digital y consecuencias permanentes

La presidenta de Ola Violeta alertó sobre las secuelas que la violencia digital deja en la “reputación digital” de las personas. La permanencia de estas imágenes en la red puede afectar la búsqueda de empleo, el arrendamiento de viviendas o las relaciones personales. “El internet tiene memoria; aunque borres cosas, existe tu huella digital”, puntualizó. Sigue informándote sobre este tema con Juan Manuel Jiménez en MVS Noticias.