Ciencia y Tecnología

Deepfakes: la inteligencia artificial como nueva herramienta de violencia contra mujeres y niñas

itemlink
Lunes, 09 Marzo 2026
Agencia de Noticias Univalle

No es ficción ni descuido

Por: Laura Sofia Rodríguez Pulecio
Docente Escuela de Ingeniería de Sistemas y Computación (EISC)
Grupo de Mujeres STEM - Facultad de Ingeniería

Las deepfakes ya no pertenecen al terreno de la ciencia ficción ni del entretenimiento digital. Hoy son una tecnología utilizada para ejercer violencia, principalmente contra mujeres y niñas, con consecuencias reales, profundas y duraderas. Lejos de ser un problema marginal o anecdótico, se trata de una forma contemporánea de violencia de género que opera en entornos digitales pero impacta la vida material, emocional, laboral y académica de las víctimas. Frente a este escenario, la pregunta no es menor: ¿quién garantiza los derechos de las víctimas?

Las deepfakes son contenidos audiovisuales —imágenes, audios o videos— creados o manipulados mediante inteligencia artificial, en particular a través de técnicas de aprendizaje profundo. Estos sistemas analizan grandes volúmenes de datos visuales y sonoros disponibles en internet para imitar rostros, cuerpos y voces con un alto grado de realismo. De manera general, funcionan a partir de la interacción de dos componentes: uno que genera contenido falso y otro que intenta distinguirlo del contenido real. En este proceso competitivo, el resultado final puede volverse casi indistinguible de lo auténtico.

Uno de los aspectos más preocupantes es que no se requiere material íntimo previo para producir este tipo de contenidos. En muchos casos, basta con una fotografía pública: una imagen en redes sociales, en una página institucional o incluso en un perfil profesional de LinkedIn. Esto desmonta uno de los mitos más dañinos que rodean estas violencias: la idea de que la víctima “hizo algo” para provocarlas. ¿De qué se les va a culpar ahora, de tener una foto de perfil? Como advierten Lazard et al. (2025), el riesgo no es solo la falsificación en sí, sino la erosión de la noción de verdad: cuando una imagen “parece real”, la duda deja de recaer sobre la tecnología y se traslada a la mujer que intenta demostrar que no lo es.

La evidencia académica es clara: algunos autores explican que el 90% de las imágenes generadas por la IA son de carácter sexual y afectan de manera desproporcionada a mujeres y niñas (Laffier & Rehman, 2023; Lazard et al., 2025). Sus impactos son múltiples, acumulativos y profundamente desiguales. A nivel psicológico, generan miedo, ansiedad, vergüenza, culpa, autocensura e incluso puede llegar a tener efectos estéticos en las victimas. En el plano social y reputacional, producen descrédito, aislamiento y daños severos a la vida académica y laboral. A nivel institucional, se suman el temor a la revictimización y la impunidad.

Desde su perspectiva, Akter y Ahmed (2025) señalan que estas violencias operan como mecanismos de control y silenciamiento que expulsan a las mujeres del espacio digital y del espacio público. Frente a estos daños, aún persiste una pregunta profundamente injusta que circula en la opinión pública: “si no es su cuerpo real, ¿cuál es el problema?”. La respuesta es clara: el daño no reside solo en el cuerpo, sino en la violencia simbólica, social y estructural que se ejerce cuando se fabrica una mentira creíble para disciplinar, humillar o silenciar. Por eso, la pregunta que muchas víctimas se hacen no es “¿por qué lo hizo?”, sino “¿me van a creer?”.

Los casos recientes evidencian la magnitud del problema. En México, el caso de estudiantes del Instituto Politécnico Nacional marcó un precedente regional. Un estudiante utilizó inteligencia artificial para crear imágenes sexuales falsas de sus compañeras a partir de fotografías públicas. La respuesta institucional fue revictimizante, inadecuada y lenta, y el proceso judicial evidenció un profundo desconocimiento tecnológico y ausencia de enfoque de género. A la fecha, no se le ha imputado directamente el delito de creación de deepfakes, al no poder demostrarse que las produjo más allá de tenerlas en su dispositivo. Aunque el agresor permanece detenido por pornografía infantil, lo que abre una reflexión inquietante: si estos casos se relacionan pero la ley no está siendo suficientemente efectiva para proteger a las mujeres?

En España, lo ocurrido en Almendralejo afectó a decenas de niñas cuyas imágenes fueron sexualizadas digitalmente a partir de fotos comunes, con impactos inmediatos en su bienestar y su vida escolar. Incluso mujeres con enorme visibilidad pública han enfrentado escenarios similares: en 2024, las imágenes falsas de Taylor Swift circularon masivamente antes de ser retiradas, y situaciones parecidas han ocurrido con Rosalía, sin que se conozcan sanciones contundentes contra quienes crearon y difundieron el material. La pregunta es inevitable: si ni siquiera las mujeres más famosas logran justicia rápida y clara, ¿qué pueden esperar las mujeres y niñas que no cuentan con esa visibilidad ni con esos recursos?

En Francia, el allanamiento de las oficinas de X (antes Twitter) abrió un debate internacional sobre la responsabilidad de las plataformas tecnológicas. La investigación incluye la difusión de deepfakes sexuales y el papel de Grok, la inteligencia artificial integrada en la plataforma. Este caso deja una pregunta incómoda pero inevitable: ¿qué ocurre cuando las propias empresas tecnológicas facilitan, directa o indirectamente, estas violencias? Y, más aún, ¿hasta dónde debe llegar la regulación de las empresas tecnológicas cuando sus herramientas amplifican daños estructurales? Aunque las plataformas tienen una responsabilidad ineludible en la prevención, detección, cooperación con la justicia y el diseño ético de la tecnología, la evidencia muestra que no actúan con la diligencia necesaria y que, con frecuencia, priorizan el lucro sobre los derechos.

Existen marcos legales que intentan responder a este fenómeno, como la Ley Olimpia en México o las regulaciones europeas y coreanas emergentes. En Estados Unidos, se han presentado iniciativas como el proyecto de ley Disrupt Explicit Forged Images and Non-Consensual Edits Act (DEFIANCE Act), aunque esta legislación aún no se ha convertido en ley federal vigente. La mayoría de las leyes llegan tarde, se enfocan en la difusión y no en la creación del contenido y no contemplan la responsabilidad algorítmica.

En Colombia, en julio de 2025 se aprobó la Ley 2502, que introduce un agravante penal cuando la suplantación de identidad se comete usando inteligencia artificial, lo que abarca expresamente las deepfakes. No obstante, aún no existe una ley que tipifique de manera específica la creación o difusión de deepfakes sexuales o íntimos no consensuados como un delito autónomo. Hasta ahora, no hay casos judiciales con condenas explícitas por deepfakes en Colombia. Como señalan Laffier y Rehman (2023), el resultado es que la carga probatoria vuelve a recaer sobre las víctimas, reforzando el miedo a la revictimización y la sensación de impunidad. 

Este escenario interpela de manera directa a las instituciones educativas, científicas y formadoras de talento. Primero preguntarnos si nuestros protocolos están preparados para enfrentar violencias mediadas por inteligencia artificial? Pero también es necesario revisar qué tipo de inteligencia artificial estamos enseñando, con qué valores y desde qué marcos éticos. ¿Estamos formando profesionales capaces de desarrollar y usar IA con responsabilidad social, enfoque de derechos humanos y perspectiva de género, o únicamente perfiles técnicos entrenados para optimizar modelos sin cuestionar sus impactos? No solo en ingeniería de sistemas, electrónica o desarrollo de software, sino también en programas como derecho, comunicación y gestión pública. La formación en inteligencia artificial no puede limitarse a aspectos algorítmicos o de eficiencia computacional. Incorporar la ética no debe ser un módulo aislado ni opcional, sino un eje transversal. Enseñar IA con enfoque de género e interseccional implica analizar cómo los datos reproducen desigualdades, cómo los modelos amplifican sesgos y cómo ciertas tecnologías pueden convertirse en herramientas de control, exclusión o violencia. También exige discutir quiénes quedan fuera del diseño tecnológico y quiénes cargan con los riesgos cuando las cosas fallan.

Por otro lado, nuestros comités de ética de la investigación ya se están haciendo estas preguntas? ¿Se evalúan impactos diferenciados por género, raza, etnia u orientación sexual? ¿Se diseñan prototipos libres de sesgos? ¿Se consideran los riesgos específicos para mujeres y otros grupos históricamente marginados? ¿La investigación contribuye a reducir brechas o por el contrario, las profundiza? La pregunta de fondo no es solo si nuestras investigaciones son técnicamente sólidas, sino si contribuyen a reducir brechas o si, por el contrario, están profundizando violencias y desigualdades históricas bajo el discurso de la innovación.

Al final, la discusión es sobre derechos fundamentales: el derecho a la dignidad, a la intimidad, a la reputación, a la verdad y al acceso a la justicia. y quien los garantiza ¿Las leyes? Aún son insuficientes. ¿Las plataformas? Han priorizado la innovación y el lucro. ¿Las instituciones? No estamos listas. Mientras la pregunta siga siendo qué hizo la víctima y no quién permitió el daño, las deepfakes seguirán siendo una herramienta de violencia contra mujeres y niñas.

Frente a este panorama, es urgente ampliar la conversación pública y académica. Las deepfakes no son un problema técnico aislado: son una expresión contemporánea de violencias estructurales que encuentran en la inteligencia artificial un nuevo amplificador. Para profundizar en estas discusiones, invito a escuchar el podcast  Mi cara pero no mi cuerpo de El Hilo, que aborda el caso de deepfakes en México y sus impactos en la vida de las mujeres, visibilizando testimonios, vacíos legales y responsabilidades institucionales. Asimismo, se recomienda la lectura del artículo de la profesora Laura Rodríguez y el profesor Óscar Bedoya (EISC), que analiza técnicas de inteligencia artificial para la detección de ciberacoso en la plataforma X, aportando una mirada crítica sobre el rol de los algoritmos, lo que sí se puede hacer  y podrían hacer las plataformas si quisieran y los límites reales de la tecnología para proteger derechos.

Hablar de deepfakes no es hablar del futuro. Es hablar del presente. Y de qué tan dispuestas están nuestras sociedades, instituciones y plataformas a garantizar los derechos de mujeres y niñas en la era de la inteligencia artificial.

Referencias
Akter, M. S., & Ahmed, P. (2025). The emergence of AI-generated deepfakes as a new tool for gender-based violence against women: A brief narrative review of evidence and the implications of the techno-feminist perspective. feminists@law, 13(2).
Laffier, J., & Rehman, A. (2023). Deepfakes and harm to women. Journal of Digital Life and Learning, 3(1), 1–21.
Lazard, L., Capdevila, R., Turley, E. L., Gilfoyle, K., & Stavropoulou, N. (2025). Deepfake Technology and Gender-Based Violence: A Scoping Review. Trauma, Violence, & Abuse. https://doi.org/10.1177/15248380251384271 


Nuestros Medios

  • Boton de Univalle TV Canal Universitario
  • Boton de Univalle Radio
  • Boton de la Revista Campus Revista Institucional
  • Boton de la Agencia de noticias Univalle

Nuestros Eventos

Información de la Agencia

  • Directora
  • Fulvia Carvajal
  • Coordinador de Información
  • Diego Alejandro Guerrero
  • Comunicadores y Periodistas
  • Laura María Parra
  • Yizeth Bonilla Vélez
  • Diana Patricia Sevilla
  • Edgar Hernán Cruz García
  • Melissa Pantoja Osorio
  • Contactos
  • agenda@correounivalle.edu.co
  • Universidad del Valle
  • Cali, Colombia