Entretenimento

Como caso de Taylor Swift pode ajudar vítimas de deepfakes pornográficos

0

Taylor Swift voltou aos holofotes, mas infelizmente por um motivo negativo: ela foi vítima de deepfakes pornográficos nas redes sociais.

Entre uma turnê recorde e seu novo namorado, o astro da NFL Travis Kelce, a cantora norte-americana agora pode estar se preparando para uma batalha legal sem precedentes relacionada à pornografia gerada por inteligência artificial (IA).

Taylor Swift está supostamente se organizando para tomar medidas legais contra aqueles que distribuíram imagens deepfake dela.

Imagens explícitas da cantora começaram a circular no Twitter em 25 de janeiro. Estas imagens, descritas por fãs como “chocantes”, aparentemente surgiram de um grupo no Telegram dedicado à produção de conteúdo pornográfico artificial envolvendo mulheres.

Elas permaneceram disponíveis por cerca de 17 horas e foram visualizadas mais de 45 milhões de vezes antes saírem do X. A plataforma bloqueou temporariamente as buscas pelo nome de Swift para tentar evitar que outros usuários compartilhassem as fotos.

Enquanto isso, senadores dos Estados Unidos entraram com um projeto de lei para a criminalização de imagens sexuais geradas por IA sem consentimento.

Falta de amparo

Via Flickr

Atualmente, não existe uma lei federal nos EUA contra conteúdo de deepfakes. No entanto, essa legislação tem sido debatida, principalmente em resposta ao uso de IA generativa na disseminação de desinformação política.

Porém, até que tal lei seja aprovada, as opções de recurso de Swift são limitadas.

Ela poderia entrar com um processo contra a empresa responsável pela tecnologia ou possivelmente mover uma ação civil contra os criadores ou distribuidores das imagens.

A Microsoft, cujo software supostamente foi usado para criar as imagens, já implementou restrições para impedir a geração de imagens semelhantes.

Abuso sexual por imagens

O caso de Taylor Swift com as deepfakes ganhou reconhecimento por ela ser uma estrela global, mas milhares de celebridades e mulheres normais enfrentam a mesma coisa.

A questão da pornografia gerada por IA e dos deepfakes é um problema em crescimento à medida que a tecnologia se torna mais acessível. Atualmente, leva apenas 25 minutos e não custa nada para criar pornografia artificial.

Quase todo o conteúdo de deepfakes tem uma natureza pornográfica e geralmente retrata mulheres.

Embora as celebridades sejam frequentemente alvo, a verdade é que qualquer pessoa com uma imagem pública poderia facilmente ser vítima de imagens pornográficas com sua semelhança.

Além disso, por mais que as imagens sejam falsas, o impacto prejudicial dessa experiência é muito real.

Estudos sobre o compartilhamento não consensual de imagens pornográficas ou íntimas têm documentado os sentimentos de violação e vergonha experimentados pelas vítimas. Alguns dos efeitos incluem ansiedade, depressão e Transtorno de Estresse Pós-Traumático (TEPT).

Além disso, a natureza digital do compartilhamento de imagens sexuais significa que as vítimas precisam viver com o constante medo de que sua foto seja compartilhada repetidamente.

Via Flickr

Outras vítimas de deepfakes

A atriz Jennifer Lawrence e a personalidade da televisão Georgia Harrison, ambas vítimas conhecidas de abuso sexual baseado em imagens, compartilharam como seu status de celebridade amplificou a escala e o alcance de suas próprias experiências.

A pornografia deepfakes e outras formas de abuso sexual digital às vezes viram danos “menores” em comparação com o assédio sexual físico, devido à sua natureza online.

Um caso de alto perfil como o de Taylor Swift pode ajudar a destacar o impacto genuíno dessas imagens nas vítimas.

O fato de que não é “realmente” o corpo dela não diminui a gravidade da situação. Pesquisas mostram que a “pornificação” de fotos não explícitas usando photoshop ou IA pode ser tão prejudicial quanto outro abuso.

O que diz a lei

Através da Lei de Segurança Online, a legislação do Reino Unido agora torna crime a distribuição (embora não a criação) de imagens íntimas feitas ou modificadas digitalmente.

A mudança teve uma boa recepção pelos ativistas, mas ainda existem obstáculos que impedem as vítimas de buscar justiça.

Assim como acontece com a violência sexual, os incidentes de compartilhamento não consensual de imagens sexuais não viram denúncias. Quando ocorre, a má resposta da polícia pode intensificar os danos.

As taxas de acusação são baixas, muitas vezes devido à escassez de evidências ou à retirada do apoio das vítimas.

A falta de orientação por parte das autoridades, a ausência de garantia de anonimato ou o medo de retaliação por parte do agressor são apenas alguns dos fatores que podem levar alguém a decidir não prosseguir com um caso.

Ativista contra o machismo

Apesar da fama de Taylor Swift aumentar o hate e as críticas, sua fama ajuda muitas vítimas de violência sexual. O alcance, dinheiro e influência traz a atenção necessária para o caso que atinge milhares de mulheres.

O “efeito Taylor Swift” será uma força poderosa para que surjam novas medidas contra os criadores das imagens deepfakes. Por isso, podemos esperar que isso se torne um caso emblemático contra a pornografia artificial.

 

Fonte: Revista Galileu

Imagens: Flickr, Flickr

Depois de 30 anos, relógio que Ayrton Senna usou antes do acidente é devolvido

Previous article

Ter um propósito na vida pode ajudar você a encontrar o amor, diz estudo

Next article

Comments

Comments are closed.