Home Notícias Usando memes, os usuários de mídia social se tornaram equipes vermelhas para...

Usando memes, os usuários de mídia social se tornaram equipes vermelhas para recursos de IA incompletos

Usando memes, os usuários de mídia social se tornaram equipes vermelhas para recursos de IA incompletos

“Correr com tesoura é um exercício cardiovascular que pode aumentar sua frequência cardíaca e exigir concentração e foco”, afirma o novo recurso de pesquisa de IA do Google. “Alguns dizem que também pode melhorar os poros e dar força.”

O recurso de IA do Google obteve esta resposta de um site chamado Comédia da Velhinha, que, como o próprio nome deixa claro, é um blog de comédia. Mas a gafe é tão ridícula que tem circulado nas redes sociais, junto com outras visões gerais de IA obviamente incorretas no Google. Efetivamente, os usuários comuns agora estão formando equipes com esses produtos nas redes sociais.

Na segurança cibernética, algumas empresas contratarão “equipas vermelhas” – hackers éticos – que tentam violar os seus produtos como se fossem maus actores. Se uma equipe vermelha encontrar uma vulnerabilidade, a empresa poderá corrigi-la antes que o produto seja enviado. O Google certamente conduziu uma forma de equipe vermelha antes de lançar um produto de IA na Pesquisa Google, que é estimado para processar trilhões de consultas por dia.

É surpreendente, então, que uma empresa com muitos recursos como o Google ainda forneça produtos com falhas óbvias. É por isso que agora se tornou um meme fazer palhaçadas sobre as falhas dos produtos de IA, especialmente numa época em que a IA está se tornando mais onipresente. Vimos isso com erros ortográficos no ChatGPT, falha de compreensão dos geradores de vídeo como os humanos comem espaguetee Grok A.I. resumos de notícias no X que, como o Google, não entendem a sátira. Mas esses memes poderiam, na verdade, servir como feedback útil para empresas que desenvolvem e testam IA.

Apesar da natureza de destaque destas falhas, as empresas de tecnologia muitas vezes minimizam o seu impacto.

“Os exemplos que vimos são geralmente consultas muito incomuns e não representam as experiências da maioria das pessoas”, disse o Google ao TechCrunch em um comunicado enviado por e-mail. “Realizamos testes extensivos antes de lançar esta nova experiência e usaremos esses exemplos isolados à medida que continuamos a refinar nossos sistemas em geral.”

Nem todos os usuários veem os mesmos resultados de IA e, quando uma sugestão de IA particularmente ruim é divulgada, o problema geralmente já foi corrigido. Num caso mais recente que se tornou viral, o Google sugeriu que se você estiver fazendo pizza, mas o queijo não gruda, você pode adicionar cerca de um oitavo de xícara de cola ao molho para “dar mais pegajosidade”. Acontece que a IA está extraindo essa resposta de um comentário do Reddit de onze anos de um usuário chamado “f––smith”.

Além de ser um erro incrível, também sinaliza que os negócios de conteúdo de IA podem estar supervalorizados. O Google tem um Contrato de US$ 60 milhões com o Reddit para licenciar seu conteúdo para treinamento de modelos de IA, por exemplo. O Reddit assinou um acordo semelhante com a OpenAI na semana passada, e as propriedades da Automattic WordPress.org e Tumblr estão rumores estar em negociações para vender dados para Midjourney e OpenAI.

Para crédito do Google, muitos dos erros que circulam nas redes sociais vêm de pesquisas não convencionais destinadas a enganar a IA. Pelo menos espero que ninguém esteja procurando seriamente pelos “benefícios para a saúde de correr com uma tesoura”. Mas alguns desses erros são mais sérios. Jornalista científica Erin Ross postado em X que o Google divulgou informações incorretas sobre o que fazer se você for picado por uma cascavel.

A postagem de Ross, que teve mais de 13 mil curtidas, mostra que a IA recomendou aplicar um torniquete na ferida, cortar a ferida e sugar o veneno. De acordo com Serviço Florestal dos EUAessas são todas as coisas que você deveria não fazer, caso você seja mordido. Enquanto isso, no Bluesky, o autor T Kingfisher ampliou uma postagem que mostra o Gemini do Google identificando erroneamente um cogumelo venenoso como um cogumelo de botão branco comum – as capturas de tela da postagem têm espalhar para outras plataformas como um conto de advertência.

Quando uma resposta ruim da IA ​​se torna viral, a IA pode ficar mais confusa com o novo conteúdo em torno do tópico que surge como resultado. Na quarta-feira, o repórter do New York Times Aric Toler postou uma captura de tela no X isso mostra uma consulta perguntando se um cachorro já jogou na NHL. A resposta da IA ​​foi sim – por algum motivo, a IA chamou o jogador do Calgary Flames, Martin Pospisil, de cachorro. Agora, quando você faz a mesma consulta, a IA puxa um artigo de o ponto diário sobre como a IA do Google continua pensando que os cães estão praticando esportes. A IA está sendo alimentada com seus próprios erros, envenenando-a ainda mais.

Este é o problema inerente ao treinamento desses modelos de IA em grande escala na Internet: às vezes, as pessoas mentem na Internet. Mas assim como há nenhuma regra contra um cachorro jogando basqueteinfelizmente não há nenhuma regra contra grandes empresas de tecnologia que enviam produtos de IA ruins.

Como diz o ditado: entra lixo, sai lixo.



Fuente