Connect with us

Hi, what are you looking for?

Tecnología

Violencia de género digital: publicitaban en redes una app que prometía desnudar mujeres con IA

Esta práctica es considerada una forma de violencia de género digital, ya que las imágenes generadas afectan la dignidad de las personas y pueden ser utilizadas para dañar su integridad, reputación y dignidad.

Las redes sociales volvieron a revolucionarse en los últimos días con un nuevo escándalo: varios usuarios denunciaron la aparición en Instagram y en Facebook de publicidades de una app que prometía desnudar mujeres con inteligencia artificial.

Las capturas de pantallas de la promoción, que dieron la vuelta al mundo y se viralizaron, mostraban una foto de Kim Kardashian y la leyenda Desnuda a cualquier mujer gratis. Inténtalo”.

Otra de las stories que muchos usuarios de Instagram lograron capturar comparaba la imagen de una chica muy joven vestida con una versión de la misma muchacha desnuda, realizada con un software basado en IA.

Publicitaban en Instagram y Facebook una app que desnuda mujeres con inteligencia artificial.(Capturas: Gentileza 404Media)
Publicitaban en Instagram y Facebook una app que desnuda mujeres con inteligencia artificial.(Capturas: Gentileza 404Media)

En ambas publicidades se invitaba a los usuarios a generar, a partir de fotos reales de mujeres, desnudos fake no consentidos e hiperrealistas. Esta práctica es considerada una forma de violencia de género y abuso sexual digital, ya que las imágenes, afectan la dignidad de las personas y pueden ser utilizadas para dañar la reputación de las personas o para difundir información falsa.

Los deepfake como abuso sexual digital

Los deepfakes son un tipo de contenido multimedia generado por algoritmos de aprendizaje automático que pueden reemplazar el rostro, la voz, o incluso el cuerpo de una persona, insertarlo en un clip de video y hacerlo actuar o interactuar de acuerdo a lo que desee quien lo programa.

Esto se logra mediante la recopilación de datos de imágenes y videos de la persona a ser sustituida y luego se utiliza para entrenar el modelo de inteligencia artificial. Una vez que el modelo está entrenado, se puede superponer el rostro de la persona en el cuerpo de otra, en un video, o crear diálogos que parezcan auténticos, pero que, en realidad, son generados por la IA.

Estos videos manipulados, que utilizan la tecnología de generación de imágenes para reemplazar la cara y la voz de una persona con el cuerpo de otra, encontraron un inquietante nicho de mercado en la industria de entretenimiento para adultos.

Pero, de la misma manera que la pornovenganza -la publicación en redes sociales de fotos íntimas de exparejas- la pornografía deepfake se considera abuso sexual digital, basado en imágenes, un término que abarca la toma, la creación y/o el intercambio de fotos íntimas sin consentimiento.

La app generó una ola de indignación, ya que Instagram no solo no prohíbe explíticamente las herramientas de este tipo, sino que muchas veces son promocionas activamente entre los usuarios. Pero en este caso, esta aplicación van en contra de las propias políticas de plataformas de Meta, empresa a la que pertenece Instagram.

Por esa razón, Instagram y Facebook dieron de baja esos anuncios y eliminaron todas esas publicidades que invitaban a los usuarios a desnudar mujeres, que generaban imágenes fake de manera virtual, digital y con inteligencia digital, sin su consentimiento.

Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

LO QUE TE PERDISTE MIRALO

Mundo

Los padres de la víctima descubrieron que la docente mantenía conversaciones casi todos los días con su hijo a través de mensajes de texto...

NOTICIAS

Desde choripán hasta empanadas tucumanas. Conocé todos los platos que vas a encontrar en el Hipódromo de Palermo y cuáles son sus precios.

Music

La reina del pop se presentó de manera gratuita en la playa de Copacabana con el “Celebration Tour”.

Mundo

Fueron localizados en un pozo cerca de una playa de Baja California. Según las pericias preliminares, se trataría de los jóvenes Jake y Callum...