Mujeres de Corea del Sur denuncian masivamente agresiones con IA

Cientos de imágenes alteradas con Inteligencia Artificial (IA) para la creación de contenido pornográfico estaban siendo intercambiadas en grupos de Telegram integrados por más de 220 mil hombres de Corea del Sur.

La denuncia comenzó a viralizarse en redes por numerosas mujeres que habían sido victimas de este tipo de violencia sexual, una que aún ha fallado en ser atendido de manera efectiva, no solo en el país asiático sino en todo el alcance de las redes a nivel internacional.

Dado que el caso no estaba teniendo suficiente atención dentro de Corea del Sur, mujeres de este país dieron testimonio en plataformas para dar eco a las agresiones sexuales virtuales y pidieron compartir masivamente.

El hecho fue finalmente atendido por el presidente de Corea del Sur, Yoon Suk Yeol, hace un par de días; el mandatario llamó a una investigación “exhaustiva” que hasta ahora, de acuerdo a las denuncias, ha apuntado que, a través del canal, convertían imágenes y videos de mujeres en contenido ponográfico, con tecnología deep fake, herramienta que ya ha sido cuestionada por usos poco éticos en otros ámbitos.

Las conversaciones en la red de Telegram también develaron la profunda y preocupante misoginia entre los hombres y jóvenes de Corea del Sur, país que se ha colocado como uno de los mayores territorios con problemas de brecha de género, violencia a las mujeres y diversidades y machismo.

“No sé por qué estas mujeres repentinamente creen que tienen derechos humanos”, “el ascenso de los derechos de las mujeres ha ido demasiado lejos”, “Quieren derechos humanos y ser tratadas como personas”, son algunos de las conversaciones filtradas del grupo.

Aún con esta situación -y a pesar de que Ley de Prevención de la Violencia Sexual y Protección de las Víctimas de Corea del Sur estipula que la creación de deepfakes sexualmente explícitos con el objetivo de distribuirlos se castiga con cinco años de prisión- las agresiones a mujeres siguen siendo minimizadas a nivel social y mediático.

“A pesar de que degradar sexualmente a las mujeres se ha convertido en una forma de ‘contenido’ en línea, la percepción social de esto como un delito menor es un factor clave que influye en los delitos sexuales”, externó Seo Hye-jin, directora de derechos humanos de la Asociación de Abogadas de Corea.

El ascenso en popularidad de herramientas como el deep fake continúan siendo de extrema preocupación a nivel internacional, con miles de casos y denuncias, incluidos a figuras públicas como Rosalía y, Jenna Ortega, quien recientemente denunció haber sido víctima de este tipo de agresión cuando solo tenía 14 años de edad.

Un comentario sobre “Mujeres de Corea del Sur denuncian masivamente agresiones con IA

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *