Home Notícias Casa Branca pede que empresas de tecnologia ajudem a impedir deepfakes

Casa Branca pede que empresas de tecnologia ajudem a impedir deepfakes

46
0

A administração Biden deixou clara a sua posição em relação aos deepfakes: as empresas tecnológicas devem desempenhar um papel crítico na prevenção de tais imagens, que são geradas pela inteligência artificial.

Na quinta-feira, o A Casa Branca publicou uma lista de etapas as empresas de tecnologia devem tomar medidas para coibir o abuso sexual baseado em imagens, uma forma de violência digital normalmente infligida a meninas, mulheres e pessoas lésbicas, gays, bissexuais e transgêneros.

Deepfake é um termo usado para descrever a criação sintética de uma imagem ou vídeo, que geralmente é de natureza explícita ou sexual. Às vezes, o material é feito a partir do rosto da vítima, obtido sem o seu consentimento a partir de uma foto ou vídeo existente. Noutros casos, os perpetradores utilizam IA para gerar conteúdo totalmente falso.

Num caso criminal, um homem de Wisconsin foi recentemente preso e acusado com a produção de milhares de imagens de abuso sexual infantil usando a ferramenta de IA generativa de texto para imagem chamada Stable Diffusion.

VEJA TAMBÉM:

O que fazer se alguém fizer um deepfake de você

Embora a Casa Branca não tenha citado este caso especificamente, descreveu o abuso sexual baseado em imagens como um dos “usos prejudiciais de IA de crescimento mais rápido até hoje”.

O anúncio foi escrito pelas autoridades da Casa Branca, Jennifer Klein, diretora do Conselho de Política de Gênero, e Arati Prabhakar, diretora do Escritório de Política Científica e Tecnológica.

Notícias principais do Mashable

A Casa Branca recomendou que as empresas de tecnologia limitem sites e aplicativos que criam, facilitam, monetizam ou disseminam abuso sexual baseado em imagens e restrinjam serviços da web e aplicativos que são comercializados como fornecendo aos usuários as ferramentas para criar e alterar imagens sexuais sem o consentimento dos indivíduos. . Da mesma forma, os provedores de serviços em nuvem poderiam proibir sites e aplicativos deepfake explícitos de acessar seus produtos.

As lojas de aplicativos também podem exigir que os desenvolvedores evitem a criação de imagens não consensuais, segundo a Casa Branca. Este requisito seria crítico, dado que muitos aplicativos de IA são capazes de gerar deepfakes explícitos, mesmo que não sejam anunciados para esse fim.

A Casa Branca apelou às plataformas de pagamento e às instituições financeiras para restringirem o acesso a serviços de pagamento para sites e aplicações que fazem negócios com abuso sexual baseado em imagens, especialmente se essas entidades anunciarem imagens de menores.

A Casa Branca instou a indústria a “aceitar” encontrar maneiras de ajudar adultos e jovens sobreviventes a remover conteúdo não consensual deles das plataformas online participantes. Atualmente, o processo de remoção pode ser confuso e cansativo para as vítimas, porque nem todas as plataformas online possuem um processo claro.

O Congresso também tem um papel a desempenhar, disse a Casa Branca. Pediu ao órgão governamental que “fortalecesse as proteções legais e fornecesse recursos críticos para sobreviventes e vítimas de abuso sexual baseado em imagem”. Atualmente não existe nenhuma lei federal que criminalize a geração ou disseminação de imagens deepfake explícitas.

A declaração da Casa Branca reconheceu os altos riscos do abuso sexual baseado em imagens: “Para os sobreviventes, este abuso pode ser devastador, alterando as suas vidas, perturbando a sua educação e carreiras, e levando à depressão, ansiedade, perturbação de stress pós-traumático e aumento risco de suicídio.”

Tópicos
Bem Social de Inteligência Artificial



Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here