Taylor Swift entrou para a lista de vítimas do ‘deepnude‘. Nesta quinta-feira (25), imagens pornográficas falsas da cantora, criadas a partir de inteligência artificial, circularam nas redes sociais. Revoltados, os fãs da loirinha subiram a tag “protect Taylor” (protejam a Taylor) nos trends do antigo Twitter (“X”).
Além de pedir por justiça, a mensagem dos fãs é uma forma de incentivar que todos que se depararem com os conteúdos falsos denunciem para que ele seja retirado da plataforma. “Até quando vamos viver assim? Cadê o mínimo de respeito pelas mulheres? Ainda mais pela Taylor, não só por ela ser uma artista e, sim, um ser humano com sentimentos. Assédio sexual é CRIME! E ninguém merece passar por isso”, escreveu uma fã na rede social.
Infelizmente, o que aconteceu com Taylor já se passou com outras figuras públicas, como a atriz brasileira Isís Valverde, que fez uma denúncia em outubro do ano passado, após ter nudes falsos divulgados na internet. Em muitos desses casos, os criminosos pegam fotos das redes sociais da pessoa e depois manipulam a imagem para parecer que ela está nua, por meio de programas de inteligência artificial.
Esse tipo de crime não tem atingido apenas famosas. Em novembro de 2023, a CAPRICHO chegou a noticiar o caso de um grupo de estudantes que usou inteligência artificial para criar falsas fotos íntimas de suas colegas e jogaram em grupos de mensagens do WhatsApp. Vale lembrar que a lei brasileira penaliza quem manipula ou divulga conteúdos sexuais de outras pessoas, mesmo que sejam falsas.
Caso você se depare com um conteúdo falso dessa espécie no X, busque a opção “denunciar post” naqueles três pontinhos que ficam no canto superior esquerdo do tweet. Depois, você poderá especificar na opção “Abuso e Assédio” e clicar “Conteúdo sexual indesejado ou objetificação gráfica”. Em seguida, é só apertar para “enviar”.