La influencer Alana Flores externó que emprenderá acciones legales contra los responsables detrás de la agresión con Inteligencia Artificial con la que se generó material sexual de su imagen sin consentimiento.
Fue a través de redes que la influencer y más usuarios denunciaron la existencia de una imagen íntima con su rostro, la cual comenzaba a circular en plataformas virtuales. Mientras algunos grupos y usuarios machistas continuaron el hostigamiento con la imagen, otros buscaron denunciar el material.
Más tarde, la joven externó que el material no era real y que iniciaría una demanda en contra de las personas detrás de la creación de la imagen. En comentarios, personas recordaron que, independientemente de la veracidad de la imagen, se trata de un delito al filtrarse contenido íntimo sin consentimiento.
Desde hace meses se ha observado un aumento en las agresiones generadas con la herramienta IA de Deep Fake, tecnología que permite generar contenido basado en rostros o figuras reales; de tal manera, se crean escenarios o imágenes no reales, con la apariencia de ser verdaderos.
Artistas, celebridades, influencers, estudiantes, trabajadoras, madres e infancias han sido principales víctimas de la herramienta, utilizada para crear contenido pornográfico. En 2023 se registró el caso de agresión contra alumnas del IPN por el que fue vinculado Diego “N”, quien alteró más de 50 mil imágenes con herramientas de IA.
Celebridades como Rosalía y figuras públicas de la política como Andrea Chavéz también han sido víctimas de este tipo de violencia creciente. El problema se ha generalizado no solo en México o hispanoamérica, sino que ha afectado universidades y comunidades en Asía, incluyendo una denuncia pública masiva en Corea del Sur.
Las denuncias, sin embargo, han ayudado a la visibilización del problema y han recordado las herramientas legales contra la agresión por medio de la aplicación de la Ley Olimpia.