Home Notícias Google se esforça para remover respostas que dizem às mulheres grávidas para...

Google se esforça para remover respostas que dizem às mulheres grávidas para fumarem e aos usuários para comerem pedras

47
0

Os administradores do Google se esforçaram para corrigir erros de IA que fizeram com que os usuários fossem instruídos a comer pedras e misturar queijo para pizza com cola.

A gigante da tecnologia com sede na Califórnia foi criticada depois que sua IA proprietária, AI Overview, apresentou respostas bizarras a perguntas feitas por pessoas que usam o serviço.

O mais novo recurso do mecanismo foi projetado para tornar a busca por informações mais simples, agrupando entradas de toda a web e apresentando-as no topo da primeira página de resultados.

Mas algumas dessas respostas iniciais extraíram informações de sites que se assemelham apenas vagamente ao conteúdo das perguntas.

Eles variam de sugestões culinárias potencialmente tóxicas a fatos históricos extremamente incorretos.

Em um conselho viral da IA, os usuários foram aconselhados a misturar cola com queijo para que grudasse na pizza.

Comer cola, mesmo do tipo não tóxico, é perigoso, e o conselho parece ter se originado em uma postagem de piada na plataforma de mídia social Reddit em 2013.

A resposta da IA ​​​​até sugeriu que as pessoas adicionassem um oitavo de xícara ao molho de pizza para “dar mais pegajosidade”.

Outra resposta viu a ferramenta afirmar que os geólogos recomendam que os humanos consumam pelo menos uma rocha por dia.

E numa resposta de pesquisa não baseada em nutrição, a IA afirmou que 17 dos 42 presidentes dos EUA eram brancos.

Um usuário que postou no X, antigo Twitter, compartilhou a imagem de um resultado que afirmava que os médicos recomendavam fumar entre dois e três cigarros por dia durante a gravidez.

Na realidade, fumar durante a gravidez tem sido considerado perigoso para os nascituros e as grávidas, que correm um risco acrescido de problemas relacionados com a gravidez, como aborto espontâneo e parto prematuro.

O Google disse que as respostas virais não são representativas do desempenho geral da AI Overview, já que os exemplos são “consultas muito incomuns”, o que significa que “não são representativos das experiências da maioria das pessoas”.

Um porta-voz da empresa disse: “A grande maioria das visões gerais de IA fornece informações de alta qualidade, com links para se aprofundar na web. Realizamos testes extensivos antes de lançar esta nova experiência para garantir que as visões gerais de IA atendam aos nossos altos padrões de qualidade.

“Onde houve violações das nossas políticas, tomámos medidas – e também estamos a usar estes exemplos isolados à medida que continuamos a refinar os nossos sistemas em geral”.

Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here