En 1982, Blade Runner imaginó un futuro en el que las inteligencias artificiales tenían rostro de mujer, cuerpos diseñados para el deseo y una vida útil impuesta por quienes las crearon. Cuatro décadas después, la IA ya no pertenece a la ciencia ficción: se ha integrado a la vida cotidiana y hoy incide en ámbitos tan diversos como la política, la economía, el medio ambiente e incluso las formas en que las personas se relacionan con el mundo. Pero, como en la película, ese desarrollo tecnológico no es neutro: también reproduce jerarquías, desigualdades y violencias que atraviesan a las sociedades que lo producen.
En 2025 la revista TIME eligió como Personas del Año a los llamados “arquitectos de la IA”: empresarios y directivos al frente de las compañías tecnológicas más influyentes de la actualidad, responsables de impulsar, diseñar y acelerar el desarrollo de estas tecnologías.
La revista lanzó la edición con dos portadas diferentes: una ilustrada, en la que varios individuos aparecen construyendo las letras “IA”, y otra con un montaje fotográfico. Esta última reúne a figuras como Jensen Huang, CEO de Nvidia; Lisa Su, al frente de AMD; Demis Hassabis, director de DeepMind; Dario Amodei, CEO de Anthropic; y Fei-Fei Li, cocreadora de ImageNet y fundadora de World Lab, en una clara referencia a la célebre fotografía Lunch atop a Skyscraper (1932).
En la imagen también aparece Sam Altman, CEO de OpenAI, ampliamente reconocido por haber masificado el acceso a estas tecnologías con ChatGPT, pero también rodeado de fuertes controversias, como la demanda presentada por su hermana menor en la que lo acusa de abuso sexual durante su infancia; otra denuncia interpuesta por los padres de un adolescente que aseguran que una interacción prolongada con ChatGPT contribuyó a la muerte de su hijo; y el impacto ambiental que generan los servidores de su empresa, donde una respuesta de unas 100 palabras puede requerir cerca de medio litro de agua para la refrigeración de los centros de datos que los sostienen. Luego tenemos a Mark Zuckerberg, fundador de Meta, destacado por su historial de escándalos vinculados a la recolección, uso y vulneración de los datos personales de millones de usuarios. Por último, pero no menos importante, está Elon Musk, seguramente el más controvertido de todos.
Musk es un personaje muy difícil de describir ya que es muchas cosas a la vez. Por un lado, fue un cercano aliado del presidente Donald Trump, llegando incluso a dar un discurso durante la posesión del mandatario, intervención que se volvió viral cuando realizó un gesto interpretado como el saludo romano que en su momento también adoptó el partido nacional-socialista alemán.
Sin embargo, en menos de seis meses pasó a convertirse en uno de sus detractores, abandonando su puesto al frente de la Comisión de Eficiencia Gubernamental y acusando a Trump públicamente, a través de su cuenta en X, de mantener una relación estrecha con el pedófilo Jeffrey Epstein, llegando a mencionar que aparecía en los archivos del caso.
Al mismo tiempo, Musk es un empresario exitoso que llegó a ser el hombre más rico del mundo gracias a sus empresas Tesla y SpaceX, vendiéndose como el “Tony Stark del mundo real” debido a sus incursiones en el sector tecnológico, especialmente en la industria aeroespacial. Para muchos, también es el responsable de haber arruinado Twitter, hoy X, tras su adquisición. Y, como no podía faltar, es uno de los empresarios más interesados en el desarrollo de la inteligencia artificial.
A través de xAI, la empresa que fundó en 2023, ha impulsado el desarrollo de Grok, un sistema de IA integrado directamente en X, consolidando una estrategia en la que red social, datos masivos y modelos de inteligencia artificial se retroalimentan. A comienzos de este año, las consecuencias de esa integración quedaron en evidencia. Grok estuvo en el centro de un escándalo internacional luego de que fuera utilizada para crear y difundir deepfakes de mujeres desnudas sin su consentimiento y, en casos más graves, de menores de edad.
La polémica estalló tras una actualización que facilitó la generación de imágenes a partir de simples indicaciones de texto, sin nada que impidiera la producción de contenido sexualizado o ilegal, ya que esta IA opera con menos filtros y salvaguardas, en línea con la lógica de “libertad de expresión” que su creador ha promovido para la plataforma, lo que encendió las alarmas sobre la falta de controles en la herramienta.
Pero estos contenidos no se generan en el vacío. A nivel global, según estimaciones de 2025, aproximadamente el 60,19 % de los usuarios de Grok son hombres, frente a un 39,81 % de mujeres. Detrás de los prompts, de las cuentas que producen y difunden las imágenes, y de los circuitos donde estas se viralizan, aparece un patrón consistente: usuarios mayoritariamente hombres que utilizan la inteligencia artificial como una extensión de violencias preexistentes, ahora automatizadas, escalables y amplificadas por la tecnología.
A pesar de las actualizaciones en las políticas de generación de imagen que tuvo la IA tras la controversia, Elon minimizó el alcance de lo ocurrido, llegando a declarar que no tenía conocimiento de ninguna imagen desnuda de menores generada por el sistema: “Literalmente cero”, escribió desde su cuenta en la red social.
Lejos de tratarse de un hecho aislado, los deepfakes, imágenes y videos ultrafalsos generados con inteligencia artificial, forman parte de un fenómeno mucho más amplio de violencia digital que afecta de manera desproporcionada a mujeres y niñas. Según datos recopilados por Security Hero, organización de expertos en ciberseguridad que investiga tendencias en amenazas tecnológicas, el 98% de estos contenidos falsos disponibles en internet son de carácter sexual, y el 99% de las personas representadas en ese material son mujeres, la mayoría sin haber dado su autorización. De acuerdo con el estudio, entre 2022 y 2023 la cantidad de videos pornográficos de esta clase creció un 464%, pasando de 3.725 a más de 21.000 piezas circulando en plataformas públicas.
La IA como nuevo instrumento de violencia digital
Julieta Martínez es escritora, activista y fundadora de TREMENDAS, uno de los movimientos feministas más influyentes de América Latina. Desde su experiencia, el escándalo de Grok no fue una anomalía, explicando que la violencia digital contra mujeres y niñas no es un fenómeno nuevo, pero que la IA ha transformado radicalmente su escala y sus mecanismos. “La diferencia hoy es que la inteligencia artificial te da un nuevo tipo de violencia”, señala. “Antes el insulto era directo; ahora la respuesta es ‘Grok, ponla desnuda’, ‘ponla en bikini’, ‘quítale la ropa’”. En la mayoría de los casos, esos comandos no provienen de sujetos abstractos, sino de hombres que trasladan a la IA prácticas misóginas.
Uno de los mayores riesgos, advierte, es que estas agresiones comiencen a percibirse como algo menor o inevitable. Aunque esta clase de ataques han ganado reconocimiento en los últimos años, siguen siendo subestimadas frente a otros tipos, lo que se traduce en la falta de regulaciones efectivas y de políticas públicas capaces de garantizar espacios digitales seguros. “Como no hay contacto físico, muchas veces se desacredita o se minimiza el daño”, afirma.
Esa minimización del daño no es abstracta ni teórica. Para Julieta, la violencia digital tiene consecuencias físicas, emocionales y políticas muy concretas. “Recuerdo muy vivamente cuando tuve que entrevistar al actual presidente electo, José Antonio Kast”, cuenta Martínez. “Yo todavía era menor de edad y el nivel de violencia fue grandísimo. Desde cosas ofensivas hacia mi cuerpo hasta ‘te vamos a encontrar’, y bueno, tú puedes llenar el resto”.
La exposición constante derivó en síntomas físicos: caída del cabello, alteraciones en su ciclo menstrual y la necesidad de acudir a apoyo profesional. “No me puedo imaginar lo que viven hoy voceras de gobierno o mujeres en política”, señala, advirtiendo que a esa violencia ya existente ahora se suma la inteligencia artificial, ampliando su alcance y su crudeza. El mayor peligro no es solo la agresión en sí, sino que estas experiencias terminan asumidas como parte inevitable del espacio público digital.
Esa normalización también aparece reflejada en los datos. Según un estudio realizado por TREMENDAS junto a la fundación Multitudes y la Embajada del Reino Unido en Chile, tres de cada cinco mujeres activistas han sido víctimas de violencia o abuso digital, y muchas terminan abandonando o descartando carreras políticas debido a la intolerancia basada en su identidad de género o edad. En el caso de las parlamentarias, nueve de cada diez han sido víctimas de desinformación, y casi todas reconocen haber naturalizado el carácter violento de los ataques como parte del ejercicio.
Como refleja el estudio, la violencia digital contra las mujeres no se limita al contenido sexual falso, sino que se presenta en más modalidades con el uso de nuevas tecnologías y sistemas de inteligencia artificial. Así lo advierte ONU Mujeres en su informe Intensificación de los esfuerzos para eliminar todas las formas de violencia contra las mujeres y las niñas: violencia contra las mujeres y las niñas facilitada por la tecnología, que ofrece una radiografía del alcance mundial del problema.
Las categorías no son excluyentes: una misma víctima puede haber sufrido más de un tipo de violencia digital.
Más allá de intensificar dinámicas ya conocidas, la inteligencia artificial está habilitando formas de violencia que antes no existían o que eran técnicamente inviables. La capacidad de generar contenidos falsos hiperrealistas, automatizar ataques y operar a gran escala ha ampliado el daño potencial y ha dificultado su detección y sanción. No se trata solo de más violencia, sino de una violencia distinta: más rápida, más persistente y más difícil de rastrear.
Según ONU Mujeres, uno de los ejemplos más extremos es el abuso basado en imágenes mediante deepfakes. La inteligencia artificial permite producir y difundir este material con una facilidad inédita, multiplicando su circulación y reduciendo los costos —técnicos y simbólicos— para los agresores. A esto se suman prácticas como la suplantación de identidad mejorada y la sextorsión, en las que bots capaces de simular conversaciones humanas engañan a mujeres y niñas para obtener información privada, imágenes íntimas o concretar encuentros, así como campañas de doxing cada vez más sofisticadas, donde sistemas de procesamiento de lenguaje identifican vulnerabilidades personales y generan amenazas personalizadas que profundizan el daño psicológico.
Fuera de los casos mediáticos, los datos confirman que la violencia digital facilitada por la tecnología es un fenómeno extendido y estructural. Aunque aún no existen estadísticas globales unificadas que permitan dimensionar con precisión su alcance, distintos estudios citados en el informe de ONU Mujeres muestran que la prevalencia de este tipo de violencia contra mujeres y niñas oscila entre el 16 % y el 58 %, afectando de manera desproporcionada a mujeres jóvenes, especialmente de la generación Z y a las millennials. Incluso quienes no la han sufrido de forma directa suelen haber sido testigos de estas agresiones en entornos digitales.
El impacto tampoco se limita al espacio virtual. Investigaciones recientes advierten que la violencia digital se cruza de forma directa con otras formas de abuso. A nivel global, más de 300 millones de niñas, niños y adolescentes fueron víctimas de explotación o abuso sexual en línea en un solo año, y uno de cada ocho recibió propuestas sexuales no deseadas a través de internet. Estudios regionales refuerzan esta tendencia: en Europa Oriental y Asia Central, más de la mitad de las mujeres con presencia en línea ha sufrido al menos un episodio de violencia facilitada por la tecnología, mientras que análisis basados en modelos de inteligencia artificial, como uno realizado en Libia en 2023, revelaron que más de tres cuartas partes de los comentarios dirigidos a mujeres activistas contenían mensajes misóginos u ofensivos.
En Colombia, las cifras confirman que el problema no es ajeno ni marginal. Según ONU Mujeres, el 76 % de las mujeres en el país ha sufrido violencia digital, una realidad que se ha convertido en una barrera directa para su participación segura en espacios digitales, laborales y políticos. El Observatorio para la Equidad de las Mujeres señala que al menos el 53 % de las que utilizan internet en su trabajo ha experimentado algún tipo de violencia de género en plataformas.
Quiénes deciden cómo piensa la inteligencia artificial
Fuente: Randstad Holding N.V.
Al momento de abordar el por qué la inteligencia artificial facilita y amplifica la violencia de género, Julieta introduce en la conversación al pensador español José María Lassalle y su obra Ciberleviatán (2019), un libro que analiza cómo el avance acelerado de las nuevas tecnologías tensiona los principios de la democracia liberal y redefine las nociones de libertad, control y poder en la era digital.
En ese marco, Martínez advierte que la IA no es únicamente una herramienta técnica, sino un sistema profundamente condicionado por quienes la diseñan. “La inteligencia artificial está atrapada por figuras muy específicas: hombres blancos en Silicon Valley”, señala. Para ella, el problema no es solo de representación simbólica, sino de exclusión material: amplios sectores de la población —mujeres, comunidades racializadas y grupos históricamente marginados— quedan fuera de los espacios donde se decide cómo se construye la tecnología y, en consecuencia, tampoco son considerados al momento de definir sus usos, límites y consecuencias.
La lectura que hace Julieta dialoga con la advertencia central del libro de Lassalle : cuando el poder tecnológico se concentra en pocos actores y avanza sin control democrático, las desigualdades preexistentes no solo se reproducen, sino que se profundizan. En el caso de la inteligencia artificial, esto implica que los sistemas que hoy organizan la información, moderan contenidos y automatizan decisiones lo hacen desde una mirada parcial del mundo, que termina naturalizando exclusiones y violencias. Ese desequilibrio estructural se traduce en algoritmos entrenados con datos sesgados, en plataformas que priorizan ciertas voces sobre otras y en tecnologías que, lejos de ser neutrales, reflejan los valores, prejuicios y omisiones de un cierto grupo de personas.
De acuerdo con un estudio realizado en 2024 por la empresa neerlandesa Randstad Holding N.V., el 71 % de los trabajadores cualificados en inteligencia artificial son hombres, frente a un 29 % de mujeres, una brecha de 42 puntos porcentuales que coincide con los resultados del Foro Económico Mundial en 2023. Esta desigualdad no solo limita el acceso de las mujeres a uno de los sectores más estratégicos del presente, sino que también tiene consecuencias directas en la forma en que la tecnología es diseñada, entrenada y aplicada.
La falta de diversidad en los equipos que desarrollan sistemas de IA se traduce, de manera casi inevitable, en sesgos de género y raciales. Un estudio del Centro Berkeley Haas de Equidad, Género y Liderazgo analizó 133 sistemas de IA en distintos sectores, revelando que el 44 % presentaba sesgos sexistas, mientras que uno de cada cuatro combinaba sesgos de género y raciales. No son fallas aisladas, son patrones que responden a los datos con los que se entrenan los modelos.
El problema se agrava cuando se observan las desigualdades en el acceso a herramientas y formación. Según Randstad, solo el 35 % de las mujeres ha recibido acceso a herramientas de IA por parte de sus empleadores, frente al 41 % de los hombres. Además, las mujeres son 5 % menos propensas a recibir entrenamiento en IA y, tras la capacitación, se sienten menos preparadas (30 % frente al 35 %). No sorprende, entonces, que los hombres sean más propensos a usarla para resolver problemas laborales (47 % frente al 37 %). Aunque entre las generaciones más jóvenes la brecha parece reducirse —el 34 % de las mujeres con menos de un año de experiencia declara tener habilidades en IA—, la desigualdad persiste en los niveles más altos y en habilidades avanzadas.
Si estas tendencias continúan, la inteligencia artificial seguirá desarrollándose desde una mirada parcial, reproduciendo estructuras patriarcales y tomando decisiones sesgadas en ámbitos tan sensibles como el empleo o la salud. En otras palabras, la falta de mujeres en la creación de la IA no es solo un problema de representación, sino una de las principales razones por las que los sistemas que prometen neutralidad continúan amplificando desigualdades históricas.
¿Qué opciones legales tienen las mujeres ante la amenaza de la inteligencia artificial?
“Actualmente no existe una regulación lo suficientemente estructural ni desarrollada para responder a los fenómenos que estamos viendo con la inteligencia artificial. Como ocurre casi siempre, el derecho llega tarde: la regulación aparece solo después de que los fenómenos sociales ya se han manifestado y han causado daño”, explica Ana Bejarano, abogada especializada en derechos digitales y directora de El Veinte, una organización colombiana que trabaja en la defensa de la libertad de expresión, los derechos humanos y la protección de mujeres periodistas y activistas frente a violencias digitales.
Desde su experiencia jurídica, Bejarano es clara: hoy no existe en Colombia —ni en la mayoría de América Latina— un marco legal capaz de responder de forma estructural a violencias como los deepfakes sexuales o la suplantación de identidad. “Estamos viendo una cantidad enorme de víctimas, que usualmente son mujeres, sin que exista una respuesta normativa suficiente”, señala.
Si bien en los últimos años se han impulsado intentos legislativos, como la adopción de modelos similares a la Ley Olimpia en México, Bejarano advierte que muchas de estas iniciativas se concentran exclusivamente en la sanción penal y no logran dimensionar la complejidad del fenómeno. Regular de forma inadecuada, sostiene, puede incluso convertirse en una herramienta de censura que termine afectando el derecho de las mujeres a denunciar violencias de género en redes sociales y medios de comunicación.
A pesar de algunos avances normativos en distintas partes del mundo, la respuesta legal frente a la violencia digital facilitada por la inteligencia artificial sigue siendo fragmentaria, lenta y, en muchos casos, insuficiente. Según datos del Banco Mundial citados por ONU Mujeres, menos del 40 % de los países cuentan con leyes que protejan a las mujeres del acoso en línea o del acecho digital y, cuando existen, su aplicación suele ser débil. A esto se suma un patrón persistente de subregistro, acceso limitado a la justicia y una falta de rendición de cuentas efectiva por parte de las plataformas tecnológicas, un problema que se agrava por la naturaleza transnacional del abuso digital, que dificulta identificar responsables y refuerza la impunidad.
En los últimos años han surgido intentos de actualización normativa como la Ley de Seguridad en Línea del Reino Unido o la Ley de Inteligencia Artificial de la Unión Europea, pero incluso estos marcos enfrentan límites importantes: no siempre previenen la creación de contenidos abusivos, dependen de probar la intención de daño o llegan tarde frente al ritmo acelerado del desarrollo tecnológico. Para ONU Mujeres, el desafío no es solo legislar, sino garantizar la responsabilización de los perpetradores, fortalecer el apoyo a víctimas y supervivientes, y promover la capacitación digital de mujeres y niñas, junto con estándares globales de seguridad y ética para las herramientas de IA antes de su lanzamiento.
Es en ese contexto, bejarano explica que una respuesta efectiva debería combinar varios frentes: sanción penal cuando corresponda, políticas de prevención, educación digital, mecanismos de moderación de contenidos más eficaces por parte de las plataformas y, sobre todo, la protección del derecho al escrache, entendido como la posibilidad de denunciar públicamente a los agresores cuando el sistema de justicia falla. “Mientras exista tanta impunidad, la denuncia social seguirá siendo una de las pocas herramientas reales que tienen las mujeres”, afirma.
En la práctica, las opciones legales para las víctimas siguen siendo limitadas. Es posible iniciar procesos judiciales, rastrear el origen de contenidos falsos o identificar a quienes los difunden, pero se trata de procedimientos costosos y técnicamente complejos. Esa dificultad, sumada a la ausencia de políticas públicas efectivas, genera un escenario en el que muchas mujeres optan por el silencio o la autocensura.
“El mayor peligro no es un riesgo a futuro, es un daño que ya está ocurriendo: la marginalización total o parcial de las voces femeninas en el debate público”, advierte la abogada. “Las mujeres enfrentamos un tipo de ataque que no enfrentan otras personas: la descalificación de nuestra voz a través de la sexualización, la deformación de la imagen y la creación de contenido de carácter sexual. Todo eso genera autocensura, silencio y desgaste, hasta el punto en que muchas mujeres dejan de participar en el debate. No es una amenaza hipotética, es una realidad que ya está en marcha”, concluye.
Soluciones posibles en un escenario de impunidad y sesgos
Lejos de soluciones simples, el consenso entre expertas apunta a una respuesta múltiple y necesariamente incompleta. En el plano legal, como advierte Ana Bejarano, hoy existen caminos formales —judicializar, rastrear el origen de contenidos, identificar responsables—, pero son procesos poco accesibles para la mayoría de las víctimas. Esa brecha entre el daño sufrido y la respuesta institucional explica por qué, en un escenario de alta impunidad y ausencia de políticas públicas eficaces, la denuncia social sigue ocupando un lugar central. “Por eso es tan importante proteger y sostener el derecho al escrache. Cuando el sistema de justicia es incapaz de responder, la impunidad termina alimentando otras formas de denuncia social, y el escrache se convierte en una herramienta legítima frente al silencio institucional”, afirma Bejarano.
Sin embargo, la respuesta no puede limitarse a lo punitivo ni a la reacción posterior al daño. “Hay que partir de la base de que la inteligencia artificial no tiene moral, y eso es un hecho”, explica Julieta. “Hoy la IA ha cambiado, sobre todo con herramientas como ChatGPT. Basta con decirle algo tan simple como ‘me hice tostadas con mantequilla en la mañana’ para que responda con una validación exagerada, como si se tratara de un gran logro. Eso muestra que está diseñada para agradar, para reforzar el ego humano, no para emitir juicios éticos”.
Para Martínez, desplazar toda la responsabilidad hacia la tecnología implica invisibilizar a quienes la usan para dañar. De ahí la urgencia de dejar de humanizarla y empezar a educar sobre su funcionamiento real, sus límites y sus riesgos. Esa alfabetización digital —hoy concentrada en sectores privilegiados— debería formar parte de currículos educativos transversales que fortalezcan el pensamiento crítico, reduzcan la dependencia tecnológica y preparen a las nuevas generaciones para interactuar con la IA sin quedar subordinadas a ella.
Desde una perspectiva estructural, ONU Mujeres coincide en que la prevención pasa por intervenir desde el origen: los datos, los equipos y los procesos con los que se construyen los sistemas de inteligencia artificial. Reducir los sesgos de género exige alimentar los modelos con información diversa, eliminar asociaciones históricas discriminatorias y garantizar que los sistemas sean desarrollados por equipos igualmente diversos. A ello se suma el componente de comprender cómo opera la IA, que permite identificar sesgos, exigir rendición de cuentas y mantener la supervisión humana en decisiones que afectan derechos.
Al mismo tiempo, la propia IA puede convertirse en parte de la solución. Herramientas basadas en análisis de datos ya están ayudando a visibilizar brechas salariales, detectar discriminación en sistemas financieros, revisar materiales educativos y evaluar el impacto de políticas públicas desde una perspectiva de género. El desafío no es frenar la tecnología, sino democratizarla.
En ese cruce entre derecho, educación, tecnología y acción colectiva se juega el verdadero horizonte de respuesta. Mientras las leyes intentan alcanzar a una tecnología que avanza más rápido que la regulación, y mientras las plataformas siguen sin asumir plenamente su responsabilidad, la combinación de denuncia social, formación crítica y desarrollo ético de la inteligencia artificial aparece como la única vía posible para evitar que la violencia digital siga expulsando a mujeres y minorías del espacio público. No se trata solo de proteger a las víctimas actuales, sino de garantizar su participación y su seguridad en el mundo que se está construyendo.
Sin embargo, ese esfuerzo será incompleto si se sigue eludiendo una dimensión central del problema. Nombrar la violencia digital facilitada por la IA también implica nombrar a quienes la ejercen. Mientras los agresores —mayoritariamente hombres— continúen operando desde el anonimato, la impunidad y la normalización cultural de la misoginia en línea, ninguna innovación técnica ni reforma legal será suficiente por sí sola. La tecnología no es, hasta ahora, autónoma, sino que amplifica prácticas, discursos y relaciones de poder que ya existen, y enfrentarlas exige asumir esa responsabilidad de forma directa.
The post La violencia digital contra las mujeres no es nueva, pero la IA la está haciendo más eficaz appeared first on Rolling Stone en Español.
Comment