Estos días, Grok, el chatbot de inteligencia artificial desarrollado por xAI e integrado en X, empezó a aparecer en conversaciones que no iban sobre tecnología, sino sobre cómo ahora una herramienta genera imágenes sexuales de mujeres reales sin su consentimiento.
En poco tiempo, usuarios comenzaron a usarla para generar deepfakes y “nudificaciones” hechas a la medida: desde la imagen de mujeres en bikini hasta la creación de versiones explícitamente sexualizadas de mujeres reales. Incluso, hubo reportes en que se involucraba a menores. Todo esto, con barreras insuficientes.
La discusión intentó dirigirse hacia nociones generales, como la libertad de expresión, la censura y el aprendizaje de la IA, en lugar de señalar que alguien le solicitó a la tecnología una imagen sexual de otra persona y la tecnología obedeció.
Pero la reacción fue inmediata y rebasó las redes. Países como Malasia e Indonesia bloquearon la herramienta y, en Reino Unido, se abrieron investigaciones regulatorias. Lo que estaba ocurriendo empezó a nombrarse por lo que es: violencia digital sexual.
No es nuevo que la humillación sexual funcione como una forma de control. Lo nuevo es la velocidad, la escala y la facilidad con la que la tecnología – cuando se diseña sin ética ni límites – puede ser dañina a alta escala: el impacto afectó, sobre todo, a mujeres.
Grok había sido presentado como una IA más libre. Pero, cuando lo atrevido se traduce en facilitar la producción masiva de imágenes sexuales no consensuadas, deja de ser irreverencia y se convierte en abuso.
La respuesta de la plataforma fue restringir estas funciones a usuarios de pago. Un movimiento que no toca el fondo del problema, sino que lo desplaza a “el que pague puede abusar”.
El techo de cristal se rompe poniendo límites claros: cómo se diseña, quién responde, cuáles son las penalizaciones, qué se permite y qué no. Y con algo que debería ser obvio, pero todavía muchos no han entendido: el consentimiento.
