Sentado em frente ao meu laptop, observei uma mulher nua com meu rosto fazendo sexo com penetração gráfica em várias posições com um homem nu. O vídeo pornográfico durou três minutos e 32 segundos, e por mais grotesco que o achei, me obriguei a assistir tudo. Eu precisava entender exatamente o quão realistas eram essas imagens e também reconhecer como era fácil para as pessoas acessá-las online.

Porque, por mais perfeita que a filmagem parecesse, não era eu – meu rosto havia sido imposto ao corpo de outra mulher usando inteligência artificial (IA) para fazer o que é conhecido como pornografia “deepfake”.

O vídeo foi descoberto por meus colegas do Channel 4 enquanto pesquisavam o aumento exponencial e alarmante da pornografia deepfake para uma reportagem especial que foi transmitida no mês passado.

Um vídeo pornográfico deepfake da emissora do Channel 4 Cathy Newman foi descoberto por seus colegas enquanto pesquisavam a ascensão da tecnologia

Das 4.000 celebridades que encontraram em vídeos pornográficos deepfake online, 250 eram britânicas – e uma delas era eu.

Nenhuma das celebridades que abordamos para comentar sobre isso veio a público. Embora decepcionante, eu entendi – eles não queriam perpetuar o abuso de que foram vítimas, chamando mais atenção para ele.

Mas para que a nossa investigação tivesse o máximo impacto, eu sabia que precisava falar abertamente.

Nos meus 18 anos como jornalista do Channel 4, infelizmente, vi muitas imagens perturbadoras de violência sexual. Então, embora estivesse nervoso em me tornar parte da história, pensei que estaria acostumado com o conteúdo do vídeo em si.

Mas na verdade isso me deixou perturbado e assombrado. Fui violada por um perpetrador que, até onde sei, nunca conheci, e fui vítima de um crime muito moderno que corre o risco de ter um efeito corrosivo nas gerações futuras de mulheres.

Também me senti justificado pela minha decisão de ir a público, porque no início deste mês o Governo anunciou que a criação destes deepfakes sexualmente explícitos será considerada crime em Inglaterra e no País de Gales.

Entendo que Laura Farris, Ministra das Vítimas e da Salvaguarda, ficou parcialmente motivada a agir depois de assistir à nossa investigação. Isso ocorre depois que o compartilhamento desse tipo de conteúdo foi proibido na Lei de Segurança Online do ano passado.

Meus colegas já estavam pesquisando pornografia deepfake quando, em janeiro, imagens falsas e explícitas da cantora Taylor Swift se tornaram virais no X/Twitter, com uma imagem visualizada 47 milhões de vezes antes de ser retirada.

De repente, a escala alarmante do problema tornou-se clara. Descobrimos que os quatro sites pornográficos deepfake mais populares que hospedam imagens e vídeos manipulados de celebridades tiveram quase 100 milhões de visualizações em apenas três meses, com mais vídeos pornográficos deepfake criados em 2023 do que todos os anos combinados desde 2017.

Os vídeos foram vistos no total mais de 4,2 bilhões de vezes.

Você pode pensar que é necessário algum grau de conhecimento técnico para fazê-los, mas é incrivelmente fácil e feito principalmente usando aplicativos de ‘nudificação’ de smartphone – há mais de 200 disponíveis. Os usuários enviam uma foto – basta uma única fotografia do rosto de alguém tirada das redes sociais – e isso é usado para criar uma imagem explícita terrivelmente realista.

Devido ao grande número de fotos de celebridades online, ouvimos falar de personalidades importantes que se tornam vítimas com mais frequência. Eles incluem a congressista americana Alexandria Ocasio-Cortez, que este mês descreveu o trauma de descobrir que tinha sido alvo durante uma reunião com assessores em fevereiro, e a primeira-ministra italiana Giorgia Meloni, que pede indenização por danos depois que vídeos falsos dela foram carregados online.

Mas, sem dúvida, as maiores vítimas são as centenas de milhares de mulheres sem uma plataforma pública para denunciar as imagens como falsas – as mulheres que podem estar numa reunião ou entrevista de emprego e não sabem se as pessoas à sua frente viram e foram enganadas pelo filmagens falsas.

A recriação da emissora.  Das 4.000 celebridades que encontraram em vídeos pornográficos deepfake online, 250 eram britânicas – e uma delas era eu, escreve Cathy

A recriação da emissora. Das 4.000 celebridades que encontraram em vídeos pornográficos deepfake online, 250 eram britânicas – e uma delas era eu, escreve Cathy

Falei com uma dessas vítimas, Sophie Parrish, 31 anos, florista e mãe de dois filhos de Merseyside, cujo vídeo pornográfico deepfake foi carregado num site por alguém próximo da sua família, onde os homens se fotografaram a masturbar-se. Ela estava fisicamente doente quando descobriu, e o impacto sobre ela desde então foi profundo.

Mulher linda, perdeu a confiança e agora não quer se maquiar com medo de chamar a atenção. Ela quase se culpa, embora obviamente não haja culpa alguma. Mesmo assim, ela teve a coragem de ir a público em fevereiro passado, solicitando ao Ministério da Justiça que tornasse ilegal a criação e compartilhamento de imagens explícitas sem consentimento.

Na verdade, não fiquei totalmente surpreendida quando os meus colegas me contaram sobre a existência do meu vídeo, visto que, como mulher aos olhos do público, tenho sido perseguida incansavelmente durante anos.

Depois da minha entrevista com Jordan Peterson, o psicólogo canadiano famoso pelas suas opiniões divisivas sobre o politicamente correcto, a liberdade de expressão, a identidade de género e o privilégio racial, se ter tornado viral em 2018, recebi ameaças de morte. Fui chamada de ‘c***’, ‘b****’ e ‘w****’ e minha filha mais velha, então com 13 anos, ficou angustiada ao se deparar com um meme no Instagram em que minha cabeça havia sido imposta em uma imagem pornográfica.

Portanto, é compreensível que os meus colegas estivessem interessados ​​em que eu não me sentisse sob qualquer pressão para ver o vídeo que foi feito sobre mim, enquanto o meu editor estava preocupado com o seu impacto emocional. Mas senti que devia a cada vítima deste crime – especialmente Sophie Parrish, que entrevistei no dia anterior – compreender por mim mesmo como era ser um alvo e falar abertamente.

É claro que tenho acesso a profissionais que podem me ajudar a processar o material, mas muitas mulheres – e 98% das vítimas de pornografia falsa são mulheres – não o fazem. Fiquei preocupado com a reação das minhas filhas, agora com 19 e 15 anos, mas, como todos os adolescentes, elas estão cientes do tipo de conteúdo de IA que prolifera online e estão interessadas em saber como podemos navegar nele.

Depois de assistir à reportagem, eles me disseram que estavam orgulhosos. O mesmo aconteceu com meu marido – embora ele, compreensivelmente, não quisesse assistir ao meu vídeo não editado, e nem eu queria que ele assistisse.

Embora o meme pornográfico que a minha filha viu em 2018 fosse grosseiro, descobri que, seis anos depois, o terreno digital mudou e as fronteiras entre o que é real e o que não é confundiram-se.

A única graça salvadora do meu vídeo deepfake surpreendentemente sofisticado foi que a IA não pode – ainda – replicar meu cabelo cacheado, e o cabelo loiro descolorido claramente não era meu. No entanto, a filmagem de mim fazendo sexo com um homem que, presumivelmente, também não deu consentimento para que sua imagem fosse usada, pareceu incrivelmente invasiva.

Mas também queria ser filmado enquanto assistia, para mostrar no nosso relatório a extensão do seu impacto sobre mim.

Embora obviamente tenha sido feito à distância, por um perpetrador cujos motivos só posso especular, senti-me violado.

Qualquer pessoa que me conheça perceberia que eu não estaria envolvido na produção de um vídeo pornô, e uma vantagem de envelhecer é que você fica menos preocupado com abusos pueris. Mas a sua existência mina e desumaniza as mulheres. É uma tentativa deliberada de menosprezar e degradar. Mesmo que saibam que estão assistindo pornografia deepfake, os homens parecem não se importar.

Setenta por cento dos telespectadores visitam sites pornográficos deepfake por meio de mecanismos de busca. Quando contatamos o Google, um porta-voz disse que eles entendiam o quão angustiantes as imagens podem ser, que estão desenvolvendo proteções adicionais para ajudar as pessoas a se protegerem e que as vítimas podem ter páginas que apresentam esse conteúdo removidas dos resultados de pesquisa.

Desde a nossa investigação, dois dos maiores sites deepfake – incluindo aquele que hospeda meu vídeo – bloquearam o acesso de usuários do Reino Unido ao seu conteúdo. Mas o vídeo ainda está disponível através de uma rede privada virtual – uma VPN – que oculta a localização do usuário.

A legislação do Governo que proíbe a criação destes vídeos – que resultará num registo criminal, multa e potencial pena de prisão, e será introduzida como uma alteração à Lei de Justiça Criminal – é inovadora, mas os especialistas com quem falei já alertaram de possíveis lacunas.

As vítimas terão que provar que o vídeo foi feito com a intenção de causar sofrimento, o que pode ser difícil, e há um ponto de interrogação se, se você pedir a um aplicativo para fazer o conteúdo explícito, você estará livre dos olhos. da lei.

Outra desvantagem é que muitos destes vídeos são feitos fora do Reino Unido, onde a nossa legislação não se aplica, pelo que também é necessária uma acção global.

Depois, há a questão do momento: o Ofcom, o órgão fiscalizador da transmissão, ainda está consultando as regras da lei que tornou ilegal o compartilhamento desses vídeos. Só entrará em vigor no final do ano, altura em que centenas de milhares de mulheres terão sido vítimas.

A regulamentação também está muito atrasada em relação à tecnologia que permite este crime, pelo que, em última análise, tudo se resume às grandes empresas tecnológicas que disseminam este conteúdo explícito, o que está a atrair espectadores e anunciantes para as suas plataformas, com fins lucrativos.

São muito mais poderosas do que a jurisdição individual e não vejo qualquer evidência de que estejam a abordar a questão com a urgência que ela exige.

Acredito que está em seu poder impedir imediatamente a circulação desses vídeos, mas não é do seu interesse fazê-lo.

Eu estava preocupado com a possível reação negativa de me tornar parte dessa história, mas a reação esmagadora tem sido de apoio, seja nas redes sociais, na minha caixa de entrada de e-mail ou na rua.

E um mês depois, por mais deprimida que esteja com o efeito corrosivo da IA ​​nas gerações futuras de mulheres, estou feliz por ter tornado público.

Fuente