A Meta – dona do Facebook, Instagram, WhatsApp e Threads – disse na sexta-feira que planeja expandir os esforços para rotular conteúdo que foi manipulado ou gerado por inteligência artificial. A medida amplia os esforços anteriores, com as plataformas Meta entre um número crescente de serviços, incluindo YouTube e TikTok, que estão respondendo a esta questão.

A Meta disse que rotulará vídeos, áudio e imagens como “feitos com IA” quando seus sistemas detectarem envolvimento de IA ou quando os criadores os divulgarem durante um upload. A empresa também disse que pode adicionar um rótulo mais proeminente se o conteúdo tiver “um risco particularmente alto de enganar materialmente o público sobre um assunto importante”.

A empresa disse que tomou sua decisão conciliando a transparência com a necessidade de evitar restrições desnecessárias à liberdade de expressão online.

“Esta abordagem geral dá às pessoas mais informações sobre o conteúdo para que possam avaliá-lo melhor e para que tenham contexto se virem o mesmo conteúdo em outro lugar”, escreveu Monika Bickert, vice-presidente de política de conteúdo da Meta. em uma postagem de blog.

Consulte Mais informação: AI Atlas: seu guia para a inteligência artificial atual

A medida marca outra forma como a indústria tecnológica está a responder às preocupações crescentes sobre a difusão do conteúdo gerado pela IA e o seu risco para o público. Vídeos gerados por tecnologia de IA como Sora da OpenAI parecem cada vez mais realistas. E embora essa ferramenta não tenha sido amplamente disponibilizada ao público, outras tecnologias de IA já começaram a causar confusão e caos públicos.

No início deste ano, um consultor político fez chamadas automáticas em grande escala usando a voz do presidente Joe Biden, recriada pela IA, encorajando as pessoas em New Hampshire a não votarem nas eleições primárias. Especialistas dizem que é provável que mais desinformação sobre IA esteja a caminho, especialmente com as próximas eleições presidenciais de 2024.

A Meta não é a única empresa de mídia social que trabalha para identificar conteúdo baseado em IA. A TikTok disse no ano passado que lançará uma ferramenta para ajudar os criadores a rotular o conteúdo manipulado, observando que também proíbe “deepfakes” – vídeos, imagens ou áudio criados para enganar os espectadores sobre eventos ou pessoas reais. Enquanto isso, a subsidiária do Google no YouTube começou a exigir a divulgação de vídeos manipulados por IA dos criadores no mês passado, dizendo que alguns exemplos incluídos semelhanças “realistas” de pessoas ou cenas, bem como imagens alteradas de eventos ou lugares reais.

Consulte Mais informação: Quão próxima está essa foto da verdade? O que saber na era da IA

Meta disse que pretende fazer cumprir suas regras. Citou uma pesquisa realizada com mais de 23 mil entrevistados em 13 países, na qual 82% eram a favor de rótulos em conteúdo gerado por IA “que retratam pessoas dizendo coisas que não disseram”.

“Removemos conteúdo, independentemente de ser criado pela IA ou por uma pessoa, se violar nossas políticas contra interferência eleitoral, intimidação e assédio, violência e incitamento, ou qualquer outra política em nossos Padrões da Comunidade”, disse Bickert no Meta’s Friday postagem no blog.

Nota do editor: A CNET usou um mecanismo de IA para ajudar a criar várias dezenas de histórias, que são rotuladas de acordo. A nota que você está lendo está anexada a artigos que tratam substancialmente do tópico de IA, mas são criados inteiramente por nossos editores e escritores especializados. Para mais informações, consulte nossa política de IA.



Fuente