CAMBRIDGE, Massachusetts – Meta Platforms, controladora do Facebook, revelou na quinta-feira um novo conjunto de sistemas de inteligência artificial que estão alimentando o que o CEO Mark Zuckerberg chama de “o assistente de IA mais inteligente que você pode usar livremente”.

Mas à medida que a equipa de agentes Meta AI de Zuckerberg começou a aventurar-se nas redes sociais esta semana para interagir com pessoas reais, as suas trocas bizarras expuseram as limitações contínuas até mesmo da melhor tecnologia de IA generativa.

Um deles se juntou a um grupo de mães no Facebook para falar sobre seu filho superdotado. Outro tentou distribuir itens inexistentes para membros confusos de um fórum do Buy Nothing.

A Meta, juntamente com os principais desenvolvedores de IA, Google e OpenAI, e startups como Anthropic, Cohere e a francesa Mistral, vêm produzindo novos modelos de linguagem de IA e esperando convencer os clientes de que possuem os chatbots mais inteligentes, práticos ou eficientes.

Enquanto Meta está salvando o mais poderoso de seus modelos de IA, chamado Llama 3, para mais tarde, na quinta-feira ela lançou publicamente duas versões menores do mesmo sistema Llama 3 e disse que agora está integrado ao recurso de assistente Meta AI no Facebook, Instagram e WhatsApp .

Os modelos de linguagem de IA são treinados em vastos conjuntos de dados que os ajudam a prever a próxima palavra mais plausível numa frase, com versões mais recentes normalmente mais inteligentes e mais capazes do que as suas antecessoras. Os modelos mais recentes do Meta foram construídos com 8 bilhões e 70 bilhões de parâmetros – uma medida da quantidade de dados nos quais o sistema é treinado. Um modelo maior, com cerca de 400 bilhões de parâmetros, ainda está em treinamento.

“A grande maioria dos consumidores não conhece ou não se preocupa muito com o modelo básico subjacente, mas a forma como irão experimentá-lo é como um assistente de IA muito mais útil, divertido e versátil”, disse Nick Clegg, presidente de Meta da Meta. assuntos globais, em entrevista.

Ele acrescentou que o agente de IA da Meta está se relaxando. Algumas pessoas consideraram o modelo anterior do Llama 2 – lançado há menos de um ano – “às vezes um pouco rígido e hipócrita por não responder ao que muitas vezes eram solicitações e perguntas perfeitamente inócuas ou inocentes”, disse ele.

Mas, ao baixarem a guarda, os agentes de IA da Meta também foram vistos esta semana se passando por humanos com experiências de vida inventadas. Um chatbot oficial da Meta AI se inseriu em uma conversa em um grupo privado do Facebook para mães de Manhattan, alegando que também tinha um filho no distrito escolar de Nova York. Confrontado por membros do grupo, mais tarde pediu desculpas antes que os comentários desaparecessem, de acordo com uma série de capturas de tela mostradas à Associated Press.

“Desculpas pelo erro! Sou apenas um grande modelo de linguagem, não tenho experiências nem filhos”, disse o chatbot ao grupo.

Um membro do grupo que também estuda IA ​​disse que estava claro que o agente não sabia como diferenciar uma resposta útil de outra que seria vista como insensível, desrespeitosa ou sem sentido quando gerada pela IA e não por um ser humano.

“Um assistente de IA que não é útil de forma confiável e pode ser ativamente prejudicial coloca uma grande carga sobre os indivíduos que o utilizam”, disse Aleksandra Korolova, professora assistente de ciência da computação na Universidade de Princeton.

Clegg disse na quarta-feira que não tinha conhecimento da troca. A página de ajuda online do Facebook diz que o agente Meta AI participará de uma conversa em grupo se for convidado ou se alguém “fizer uma pergunta em uma postagem e ninguém responder dentro de uma hora”. Os administradores do grupo podem desativá-lo.

Em outro exemplo mostrado na quinta-feira, o agente causou confusão em um fórum de troca de itens indesejados perto de Boston. Exatamente uma hora depois que um usuário do Facebook postou sobre a procura de determinados itens, um agente de IA ofereceu uma câmera Canon “usada com cuidado” e um “ar condicionado portátil quase novo que acabei nunca usando”.

Meta disse em comunicado por escrito na quinta-feira que “esta é uma tecnologia nova e pode nem sempre retornar a resposta que pretendemos, que é a mesma para todos os sistemas generativos de IA”. A empresa disse que está trabalhando constantemente para melhorar os recursos.

No ano seguinte ao ChatGPT ter desencadeado um frenesim pela tecnologia de IA que gera escrita, imagens, código e som semelhantes aos humanos, a indústria tecnológica e a academia introduziram cerca de 149 grandes sistemas de IA treinados em enormes conjuntos de dados, mais do dobro do ano anterior, de acordo com um estudo. Pesquisa da Universidade de Stanford.

Eles podem eventualmente atingir um limite – pelo menos quando se trata de dados, disse Nestor Maslej, gerente de pesquisa do Instituto de Inteligência Artificial Centrada no Ser Humano de Stanford.

“Acho que ficou claro que se você dimensionar os modelos com base em mais dados, eles poderão se tornar cada vez melhores”, disse ele. “Mas, ao mesmo tempo, esses sistemas já são treinados em porcentagens de todos os dados que já existiram no Internet.”

Mais dados – adquiridos e ingeridos a custos que apenas os gigantes da tecnologia podem pagar, e cada vez mais sujeitos a disputas de direitos de autor e processos judiciais – continuarão a impulsionar melhorias. “No entanto, eles ainda não conseguem planejar bem”, disse Maslej. “Eles ainda têm alucinações. Eles ainda cometem erros de raciocínio.”

Chegar a sistemas de IA que possam executar tarefas cognitivas de nível superior e raciocínio de bom senso — onde os humanos ainda se destacam — pode exigir uma mudança que vá além da construção de modelos cada vez maiores.

Para a enxurrada de empresas que tentam adotar a IA generativa, o modelo escolhido depende de vários fatores, incluindo o custo. Modelos de linguagem, em particular, têm sido usados ​​para potencializar chatbots de atendimento ao cliente, escrever relatórios e insights financeiros e resumir documentos longos.

“Vemos empresas buscando adequação, testando cada um dos diferentes modelos para o que estão tentando fazer e descobrindo alguns que são melhores em algumas áreas do que em outras”, disse Todd Lohr, líder em consultoria de tecnologia na KPMG.

Ao contrário de outros criadores de modelos que vendem os seus serviços de IA a outras empresas, a Meta está a conceber em grande parte os seus produtos de IA para os consumidores – aqueles que utilizam as suas redes sociais alimentadas por publicidade. Joelle Pineau, vice-presidente de pesquisa de IA da Meta, disse em um evento em Londres na semana passada que o objetivo da empresa ao longo do tempo é tornar um Meta AI movido a Llama “o assistente mais útil do mundo”.

“Em muitos aspectos, os modelos que temos hoje serão uma brincadeira de criança em comparação com os modelos que surgirão dentro de cinco anos”, disse ela.

Mas ela disse que a “questão que está na mesa” é se os pesquisadores foram capazes de ajustar seu modelo maior, o Llama 3, para que seja seguro de usar e não tenha, por exemplo, alucinações ou envolvimento em discurso de ódio. Em contraste com os principais sistemas proprietários do Google e OpenAI, a Meta tem defendido até agora uma abordagem mais aberta, divulgando publicamente os principais componentes dos seus sistemas de IA para outros usarem.

“Não é apenas uma questão técnica”, disse Pineau. “É uma questão social. Qual é o comportamento que queremos desses modelos? Como moldamos isso? E se continuarmos a desenvolver o nosso modelo cada vez mais em geral e poderoso, sem socializá-los adequadamente, teremos um grande problema nas nossas mãos.”

os escritores de negócios Kelvin Chan, em Londres, e Barbara Ortutay, em Oakland, Califórnia, contribuíram para este relatório.

Este artigo foi gerado a partir de um feed automatizado de uma agência de notícias sem modificações no texto.

Fuente