O trauma devastador de quem teve imagem usada em 'deepfakes' pornôs - deepfake porno virtual

O trauma devastador de quem teve imagem usada em 'deepfakes' pornôs

O trauma devastador de quem teve imagem usada em 'deepfakes' pornôs - O trauma devastador de quem teve imagem usada em 039deepfakes039
Os ‘deepfakes’ são imagens nas quais o rosto de alguém é adicionado digitalmente ao corpo de outra pessoa. ‘Quem seria capaz de fazer isso?’, questiona Helen Mort
My Blonde GF via BBC

A diretora de um documentário sobre o impacto dos deepfakes na pornografia disse que espera que seu filme ajude as pessoas a entender o trauma imensurável que isso gera.
O filme de Rosie Morris, My Blonde GF, é sobre o que aconteceu com a escritora Helen Mort quando ela descobriu que fotos do rosto dela haviam aparecido em deepfakes em um site de ponografia.
Os deepfakes são imagens nas quais o rosto de alguém é adicionado digitalmente ao corpo de outra pessoa.
Helen diz no documentário que acredita que as imagens dela podem ter saído de uma conta antiga do Facebook e de ensaios profissionais que estão em domínio público.
No filme, ela aparece vendo fotos de si mesma quando tinha entre 19 e 32 anos, sorrindo em casamentos, eventos familiares e quando estava grávida.
Essas são as imagens que foram editadas digitalmente e incluídas sobre fotos de mulheres em cenas sexualmente explícitas e violentas.
Helen diz que ‘não consegue esquecer nenhuma das imagens’
Tyke Films via BBC
“Eu precisava ver as fotos com meus próprios olhos”, diz ela no documentário, falando direto para a câmera. Isso faz com que o público se sinta parte de uma conversa desconfortável.
“Tem uma mulher, ela está sentada na beira da cama, ela tem meu rosto, mas não é minha boca, ela está [fazendo um ato sexual]… a pele dela é muito mais bronzeada do que a minha, e essa mulher tem exatamente a minha tatuagem.”
“Ela está olhando para algum texto… um convite para humilhar a pessoa na foto, que sou eu.”
No texto, Helen é descrita como “My Blonde GF”, algo como “minha namorada loura”, que acabou virando o título do documentário.
‘Meu filme não dá notoridade aos criminosos’, diz diretora Rosie Morris
Tyke Films via BBC
LEIA TAMBÉM:
‘Deepfake ao vivo’: tecnologia existe, pode ser usada para aplicar golpes e custa caro; VÍDEO
Brasil tem ao menos 4 processos por dia por registro e divulgação de imagens íntimas sem consentimento
Marido, patrão e até pai de vítima aparecem entre denunciados por vazamentos de nudes em SP e RJ
Violência à distância
Morris diz à BBC que queria explorar o impacto que as imagens tiveram sobre Helen, incluindo pesadelos recorrentes e paranoia.
No filme, Helen afirma que muitas vezes se sente como se “as pessoas na rua de alguma forma soubessem a respeito das fotos e soubessem desse segredo horrível sobre mim, que de repente parecia meu segredo horrível”.
Esta não é a primeira vez que ela fala sobre isso, e já houve outros documentários sobre pornografia deepfake — então o que faz do filme de Morris diferente?
“Meu filme não dá notoriedade aos criminosos — não estou interessada na cabeça das pessoas que fizeram aquilo”, diz a diretora.
“Meu principal objetivo era fazer o espectador caminhar ao lado de Helen nesta história.”
“O que me impressionou quando conheci Helen foi que é possível violentar alguém sexualmente sem entrar em contato físico com ela”, afirma ela.
“Foi isso que me motivou.”
O trauma de ser usado para pornografia deepfake é muito real. “O impacto pode ser devastador e destruir vidas”, diz à BBC Clare McGlynn, professora da Universidade de Durham, no Reino Unido, especialista em abuso sexual baseado em imagens.
“Muitas vítimas descrevem uma forma de ‘ruptura social’, na qual suas vidas são divididas entre ‘antes’ e ‘depois’ do abuso, e o abuso afeta todos os aspectos de suas vidas, profissional, pessoal, econômica, sua saúde, bem-estar.”
Helen diz no filme que a “sensação foi de que eram imagens reais, e é difícil explicar para alguém que não viu isso acontecer com suas próprias fotos, como é realmente — não fizeram nada comigo”.
“Mas plantaram todas essas coisas na minha cabeça, essas fotos, não consigo esquecer nenhuma das imagens. Também não consigo ver as imagens perfeitamente inalteradas da mesma maneira.”
“Agora eu olho para aquela foto [uma imagem dela de vestido], e se eu a visse de forma independente, sinto que é a foto de um ataque.”
“O aspecto mais perturbador é que não acho que você consiga separar a imagem da memória com muita facilidade, como as fotografias. Tipo, se você olhar para trás, não sabe se lembrou do momento ou se lembrou da fotografia daquele momento.”
“Então, o que aconteceu com Helen é que essas imagens, que estão ligadas a memórias, foram reapropriadas, e praticamente plantaram essas memórias falsas, chamadas de fake, na cabeça dela. E você não pode mesmo medir esse trauma.”
“É como ser atacado psicologicamente por isso, tem a ver com o apego emocional à imagem original.”
Reportagem do Fantástico mostrou que cresceram os casos de estupro virtual no Brasil; ASSISTA:
Estupro virtual, em que vítimas são ameaçadas com divulgação de imagens íntimas, cresce
Erika Rackley, professora da Kent Law School, no Reino Unido, contou à BBC que ela e alguns colegas entrevistaram há alguns anos vítimas de abuso sexual baseado em imagens.
“Uma delas comentou no contexto dos deepfakes que a foto ‘ainda era uma foto dela… ainda é um abuso'”, diz ela.
Um relatório de 2019 da Sensity AI, empresa que monitora deepfakes, descobriu que 96% eram imagens sexuais não consensuais — e, destas, 99% eram de mulheres.
McGlynn concorda. “As mulheres são muito mais propensas a sofrer esse abuso, e os autores são principalmente homens.”
“A sociedade não tem um bom histórico de levar a sério os crimes contra as mulheres, e esse também é o caso da pornografia deepfake. O abuso online costuma ser minimizado e banalizado.”
Helen também fala em My Blonde GF sobre a inimaginável preocupação de não saber quem criou as imagens.
“Em cada uma dessas fotos, são meus olhos olhando para a câmera”, diz ela.
“Mas apesar de tudo, essa pessoa, esse criador de perfil, esse acumulador de imagens não tem rosto.”
Ela ficou ainda mais horrorizada quando descobriu que a polícia não podia fazer nada para processar quem quer que havia feito as imagens.
Eles disseram a ela que não havia nada que poderiam fazer, uma vez que nenhum crime havia sido cometido. Não é ilegal fazer imagens deepfake.
No Reino Unido, a lei na Escócia já permite que a polícia investigue, mas a atual legislação na Inglaterra e no País de Gales, não.
O Projeto de Lei de Segurança Online, que está atualmente sendo analisado na Câmara dos Lordes, prevê tornar ilegal o compartilhamento não consensual de imagens pornográficas deepfake.
McGlynn diz que “as mudanças incluídas no projeto de lei são há muito tempo esperadas” — mas para que seja realmente eficaz, “precisa nomear a violência online contra mulheres e meninas como um problema prioritário, e incluir medidas para garantir que as plataformas de internet levem esses abusos a sério”.
O Departamento de Ciência, Inovação e Tecnologia, responsável pelo projeto de lei, informou à BBC que o mesmo deve se tornar lei neste ano.
Morris conclui que está “tentando fazer perguntas” com seu filme.
“Não tenho soluções, mas realmente sinto que é algo que precisamos prestar atenção.”
Ela diz ainda que a importância dos documentários não pode ser subestimada.
“Acho que eles abrem uma janela para a vida de outras pessoas.”
“Sinto que agora, por causa das redes sociais, estamos tão envolvidos com nossa própria experiência e em como nos representamos.”
“É muito importante pensar em como as outras pessoas vivem e sentem o mundo.”

Deixe uma resposta