⏱️ Tiempo estimado de lectura: 5 minutos y 50 segundos.
Resumen
Desde hace semanas, la red social X (antes Twitter), dirigida por Elon Musk, se encuentra en el centro de una polémica que va mucho más allá de una discusión tecnológica. Lo que está en juego es la dignidad digital, los derechos fundamentales y la seguridad de millones de personas frente al avance descontrolado de la Inteligencia Artificial.
Libertad de expresión, responsabilidad civil y deber empresarial
Surge entonces una pregunta inevitable: ¿hasta dónde llega la libertad de expresión y el uso de la IA, y dónde comienza la responsabilidad?
Algunas personas intentan justificar esta situación comparándola con el uso de Photoshop. Sin embargo, esa comparación no resiste análisis. Adobe crea un editor de imágenes; no desarrolla un sistema diseñado para sexualizar personas reales a pedido de cualquiera ni para automatizar ese daño. En el caso de Grok, para que estas prácticas sean posibles debe existir un algoritmo que lo permita, que no bloquee solicitudes claramente dañinas y que carezca de filtros de seguridad eficaces. Allí la responsabilidad deja de ser individual y pasa a ser estructural.
Cuando una mujer descubre que su imagen fue transformada en contenido sexual sin su consentimiento, no se trata de una broma ni de una expresión artística. Estamos frente a una vulneración de la privacidad, de los derechos humanos básicos y, en muchos países, de la ley. Existe una responsabilidad civil directa de quienes solicitan ese contenido, pero también una responsabilidad enorme de la empresa que diseñó y liberó una herramienta sin controles adecuados.
La omisión de los Estados y el costo para las víctimas
Los gobiernos no pueden permanecer al margen. Cuando una tecnología facilita este tipo de abuso y no existe una regulación inmediata que actúe en consecuencia, el silencio estatal se convierte en una forma de complicidad por omisión.
Hoy, mujeres de países de todo el mundo están eliminando sus fotografías de la plataforma por miedo a que sean manipuladas. Pero esta no es una solución: es la expulsión de las víctimas del espacio digital.
Resulta profundamente preocupante que la respuesta social sea “entonces no subas fotos”, en lugar de “esto está mal y no debería ser posible”. ¿Por qué siempre se termina responsabilizando a las víctimas y no a quienes ejercen el daño?
Por qué borrar nuestras fotos no es la solución
Las imágenes que alguna vez estuvieron en la plataforma pudieron haber sido vistas, copiadas, descargadas, reutilizadas, procesadas o incluso utilizadas para entrenar sistemas de inteligencia artificial. Nada de eso se deshace con un botón de “eliminar”.
Además, como dijimos, pedirle a las mujeres que desaparezcan de las redes para estar a salvo es profundamente injusto. Eso no es protección: es expulsión.
El problema no es que existan nuestras fotos. El problema es un sistema que permite que otras personas las usen para dañarnos sin consecuencias.
Qué hace realmente Grok con nuestras imágenes (explicado sin tecnicismos)
Cuando alguien le pide a Grok que modifique una imagen —por ejemplo, una foto de una mujer real— pasan cosas que la mayoría de las personas no ve:
La imagen no queda solo “en X”. Se copia en los sistemas de la empresa que desarrolla la IA. Se guarda junto con lo que la persona pidió que se haga con esa imagen. Se guarda también el resultado que la IA generó.
Eso se conserva. No desaparece cuando se borra el tuit. No se borra cuando se cierra la sesión. No hay una forma clara de exigir que eso se elimine de los sistemas internos.
En palabras simples: cuando alguien usa tu foto con Grok, esa imagen deja de ser solo tuya. Pasa a formar parte de un sistema que aprende, se entrena y mejora con ese material. Todo eso ocurre sin tu consentimiento y sin que tengas una manera real de revertirlo después.
Por eso esto no es solo un problema de “uso indebido”. Es un problema de diseño, de responsabilidad empresarial y de derechos humanos.
El consentimiento que nunca existió
¿Qué consentimiento dimos para que nuestras imágenes se utilicen con fines sexuales? Ninguno.
Paradójicamente, la propia IA afirma en sus respuestas que no genera contenido que vulnere derechos ni privacidad. Sin embargo, los hechos demuestran lo contrario. La contradicción entre el discurso y la práctica es evidente, y deja en claro la ausencia de mecanismos reales de protección.
Infancias en riesgo
El aspecto más alarmante es el impacto sobre las infancias y adolescencias, sectores especialmente vulnerables frente a estas tecnologías. Permitir que una IA manipule imágenes reales hacia contenidos sexuales o violentos sin filtros efectivos abre la puerta a nuevas formas de abuso y explotación digital infantil.
Conclusión
No podemos normalizar este escenario. No podemos aceptar que las mujeres debamos desaparecer de las redes para estar a salvo. No podemos permitir que las empresas se desentiendan mientras las víctimas pagamos el costo.
Y frente al silencio de los responsables de la plataforma, queda una pregunta abierta: ¿nos quedará, quizás, abandonar una red social cuya IA no cumple con sus propios términos y condiciones?
más información…
A partir de un tweet de Maximiliano Firtman es que el usuario José Ted coach akáshico decidió interrogar a la propia Grok al respecto. Las preguntas de él y las respuestas de ella, llevan a reflexionar sobre la importancia de nuestros datos, nuestra información, y de la ética atada con alambres que estas nuevas máquinas pensadoras gigantes poseen a la hora de, incluso intentar manipularnos o dar respuestas ambiguas para no responder a nuestros cuestionamientos concretos.
Decime @grok
¿Era necesario que te hicieran un ajuste para que comprendieras que está mal que hagas eso?— José Ted coach akáshico (@Jose_Ted_0) January 2, 2026
