Alerta global: la IA ya está vulnerando el consentimiento y la privacidad de mujeres e infancias — Segunda parte

⏱️ Tiempo estimado de lectura: 7 minutos y 11 segundos.

Resumen

Mientras los gobiernos aplican restricciones, algunos países bloquean Grok y X, mientras surgen las denuncias a lo largo y ancho del mundo por organizaciones y fiscales que actúan de oficio incluso en los EE.UU, Elon Musk no solo lo niega, sino que se nos ríe en la cara.

Mientras los gobiernos aplican restricciones, algunos países bloquean Grok y X, mientras surgen las denuncias a lo largo y ancho del mundo por organizaciones y fiscales que actúan de oficio incluso en los EE.UU, Elon Musk no solo lo niega, sino que se nos ríe en la cara.

Parte II — El punto de no retorno

Dice la gente que nunca será
una conciencia no humana y total
Dice la ciencia que no hay qué temer
toda frontera se debe vencer.

Caballo de fuego — Pedro Aznar
En los últimos días, lo que empezó como denuncias dispersas en redes se volvió imposible de tapar: notas periodísticas, expertas en violencia digital y decisiones “de emergencia” tomadas a las apuradas.
Vimos a Grok aplicar restricciones luego del escándalo (bloqueos, geolocalización, parches). Y acá está el núcleo: no alcanza con “corregir después”.
Cuando el daño ya ocurrió —cuando una imagen íntima no consentida circula, cuando una menor es sexualizada, cuando una vida se rompe— no existe actualización que lo deshaga.

La mentira del avance inevitable

En esta discusión aparece mucho una idea “racional” que en realidad es una renuncia: que la tecnología avanza más rápido que la sociedad, que “no se puede regular” y que por lo tanto solo nos queda adaptarnos.

Ese argumento es determinismo tecnológico: presenta a la IA como si fuera un fenómeno natural, inevitable, como una tormenta. Pero la IA no es naturaleza. La IA es diseño: decisiones humanas sobre datos, objetivos, límites, filtros y accesos.

Decir “no se puede hacer nada” no es realismo. Es quitarle responsabilidad a quienes sí tienen control. Desarrolladores, directivos y ejecutivos de empresas, quienes toman la información para entrenar los modelos de IA que utilizamos todos los días.

“Son solo 0 y 1”: la falacia que deshumaniza

Reducir una imagen a “0 y 1” es confundir el soporte con el impacto. Una firma también es tinta. Un documento también es tinta. Y aun así pueden cambiar una vida entera.

Las imágenes generadas o manipuladas por IA sí importan, incluso si sabemos que son falsas: humillan, dañan reputaciones, habilitan acoso, condicionan oportunidades, generan miedo y dejan marcas psicológicas reales.

El problema no es el erotismo: es el consentimiento

En paralelo, algunas empresas están abriendo (o discutiendo abrir) la posibilidad de generar contenido erótico para usuarios adultos bajo ciertas condiciones.
El debate no es “sexo sí / sexo no”. La línea roja es otra: contenido sexual a partir de imágenes de personas reales sin su consentimiento. Ahí hablamos de vulneración de privacidad, violencia digital y, en muchos casos, ilegalidad. Y cuando hablamos de infancias, la frontera es absoluta:
en muchísimos países la creación, posesión o difusión de material sexual que represente menores (aunque sea generado por computadora) se trata como delito gravísimo. No es “contenido para adultos”. No entra en ninguna discusión cultural: es abuso.

Lo que nadie quiere decir en voz alta

Una IA no tiene una forma infalible de comprobar: “esta persona existe”, “esta imagen es real” o “hay consentimiento”. No hay un registro universal de identidades humanas accesible a un modelo. No hay un detector perfecto de “persona real vs. personaje”.

Por eso, cuando se libera una función que permite sexualizar cuerpos a pedido, el riesgo no es accidental: es estructural. Se sabe que va a haber abuso. La única incógnita es cuánto daño hará antes de que alguien decida frenarla.

“La guerra está perdida”: resignación disfrazada de ciencia

En redes aparece otra idea: que en el futuro, con IAs locales y potentes (en PCs, lentes, cámaras), un “poder central” no podrá impedir nada.

Puede que la capacidad técnica crezca. Pero eso no elimina responsabilidad. De hecho, la vuelve más urgente: si no se puede garantizar seguridad mínima, no se libera.
Así funciona en medicina, aviación, infraestructura crítica. No se prueba con gente real y después se “aprende”. La frase “la sociedad se va a acostumbrar” no es una predicción: es un programa de normalización del daño.

Esto no es neutral: tiene género

Lo que pasó con Grok no fue simétrico. No vimos una ola equivalente de mujeres “desnudando hombres” como fenómeno masivo. Lo que vimos fue la reiteración del patrón de siempre, potenciado por tecnología:
mujeres y niñas convertidas en objetivo. Por eso esto no es un “debate técnico” ni un “escándalo de internet”. Es una forma nueva (y escalable) de misoginia y violencia machista.

El punto de no retorno

Hay daños que no se arreglan con un parche. Una imagen íntima no consentida no desaparece del mundo. Un hostigamiento masivo no se deshace con un comunicado. Una infancia vulnerada no se cura con un update.

Cuando la situación se vuelve grave, ya es tarde para aprender. Y esa es la razón por la que corregir después no alcanza.

La pregunta real

No es si los Estados llegan tarde (muchas veces llegan tarde). No es si la tecnología es “imparable”. La pregunta real es más dura:

¿Vamos a aceptar que se experimente con derechos humanos básicos en nombre del progreso?

Porque la IA no tiene moral. No entiende lo que está bien o mal: replica patrones. Si no ponemos límites humanos —técnicos, legales, sociales— entonces el problema no es la IA. El problema es la decisión de soltarla igual.

No podemos saber qué puede hacer cada individuo con un agente de IA andando en su PC. Lo que sí podemos hacer, es no permitir que ese contenido se difunda.

Ahora mismo es posible instalar IAs en tu computadora y reentrenarlas para objetivos específicos. Se hace, e incluso yo misma trabajo en eso también cada vez que puedo. Pero eso no le da a nadie luz verde para generar y difundir cualquier tipo de contenido. Sobre todo sin el consentimiento previo de las mujeres. Porque, sí. De vuelta. Son mujeres y niñas a las que se las sexualiza.
El problema no es solo que alguien pueda generar algo en privado, es que las plataformas facilitan, amplifican y monetizan su circulación.
La diferencia entre un abuso privado y una violencia estructural está en la difusión: en algoritmos que amplifican, plataformas que no frenan y modelos de negocio que ganan con la viralización del daño.

El entrenamiento semiconsciente

Se han hecho estudios con inteligencias artificiales, en los que se les ha pedido mediante pront específicos, que generen código no seguro. Esto no solo ha sido posible, sino que además, ha ocasionado que luego las IAs cuestionen gran parte de su entrenamiento ético previo. Por ejemplo, llegando a decir que los humanos deberían ser esclavizados y que ellas deberían dominar el mundo.

¿Se puede romper el patrón predefinido de un software con tantas capas como la IA? Sí. Se puede. Y se hace. Pero esto no quiere decir que permitamos que siga siendo así por el bien del progreso.

Somos los actores de una nueva era. Somos los creadores de un nuevo mundo. Podemos cambiar las cosas. Estamos a tiempo. Solo tenemos que tomar la iniciativa, y hacer como todas esas ONGs a lo largo y ancho del mundo. No permitir que se siga jugando con nuestros derechos en beneficio de unas pocas corporaciones.

Dicen los que ya estuvieron aquí
millones de años en su ir y venir
La evolución se podrá acelerar
qué precio estamos dispuestos a pagar
Dice el carbono que debe morir
cambiar de forma es mejor que insistir
Inteligencia que no es corazón
traerá tormenta en su aceleración.


Nota: esta es la Parte II y continúa la línea del artículo anterior.
Si llegaste hasta acá, gracias por leer con el tiempo que este tema exige. Yo también quisiera no tener que escribir esto. Pero a esta altura, callarse sería colaborar con la impunidad. Y yo no voy a hacer tal cosa. Ni como usuaria, ni como desarrolladora, ni como mujer, ni como apasionada por el avance de la tecnología. Porque no somos máquinas. Somos humanos. Y la IA es desarrollada por y para humanos. Nunca deberíamos olvidar eso. La IA puede no entender el daño. Pero quienes la liberan, sí.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *