Na corrida vertiginosa para construir sistemas generativos de IA, o mantra da indústria tecnológica tem sido maior, melhor, independentemente do preço.

Agora, as empresas de tecnologia estão começando a adotar tecnologias menores de IA que não são tão poderosas, mas custam muito menos. E para muitos clientes, isso pode ser uma boa compensação.

Na terça-feira, a Microsoft apresentou três modelos menores de IA que fazem parte de uma família de tecnologia que a empresa chamou de Phi-3. A empresa disse que mesmo o menor dos três teve um desempenho quase tão bom quanto o GPT-3.5, o sistema muito maior que sustentou o chatbot ChatGPT da OpenAI quando surpreendeu o mundo após seu lançamento no final de 2022.

O menor modelo Phi-3 cabe em um smartphone, portanto pode ser usado mesmo se não estiver conectado à internet. E pode funcionar com os tipos de chips que alimentam computadores comuns, em vez de processadores mais caros fabricados pela Nvidia.

Como os modelos menores exigem menos processamento, os grandes fornecedores de tecnologia podem cobrar menos dos clientes para usá-los. Eles esperam que isso signifique que mais clientes possam aplicar IA em locais onde os modelos maiores e mais avançados eram muito caros para usar. Embora a Microsoft tenha dito que usar os novos modelos seria “substancialmente mais barato” do que usar modelos maiores como o GPT-4, ela não forneceu detalhes.

Os sistemas menores são menos potentes, o que significa que podem ser menos precisos ou parecer mais estranhos. Mas a Microsoft e outras empresas de tecnologia estão apostando que os clientes estarão dispostos a abrir mão de algum desempenho se isso significar que finalmente poderão pagar pela IA.

Os clientes imaginam muitas maneiras de usar a IA, mas com os maiores sistemas “eles pensam: ‘Ah, mas você sabe, eles podem ficar meio caros’”, disse Eric Boyd, executivo da Microsoft. Modelos menores, quase por definição, são mais baratos de implantar, disse ele.

Boyd disse que alguns clientes, como médicos ou fiscais, poderiam justificar os custos dos sistemas de IA maiores e mais precisos porque seu tempo era muito valioso. Mas muitas tarefas podem não necessitar do mesmo nível de precisão. Os anunciantes online, por exemplo, acreditam que podem direcionar melhor os anúncios com IA, mas precisam de custos mais baixos para poderem utilizar os sistemas regularmente.

“Quero que meu médico acerte as coisas”, disse Boyd. “Outras situações, em que estou resumindo avaliações de usuários on-line, se estiver um pouco errado, não é o fim do mundo.”

Os chatbots são impulsionados por grandes modelos de linguagem, ou LLMs, sistemas matemáticos que passam semanas analisando livros digitais, artigos da Wikipédia, artigos de notícias, registros de bate-papo e outros textos extraídos da Internet. Ao identificar padrões em todo esse texto, eles aprendem a gerar texto por conta própria.

Mas os LLMs armazenam tantas informações que recuperar o que é necessário para cada chat requer um poder computacional considerável. E isso é caro.

Embora gigantes da tecnologia e start-ups como OpenAI e Anthropic tenham se concentrado em melhorar os maiores sistemas de IA, também estão competindo para desenvolver modelos menores que ofereçam preços mais baixos. Meta e Google, por exemplo, lançaram modelos menores no ano passado.

Meta e Google também “abriram o código” desses modelos, o que significa que qualquer pessoa pode usá-los e modificá-los gratuitamente. Esta é uma forma comum de as empresas obterem ajuda externa para melhorar o seu software e incentivarem a indústria em geral a utilizar as suas tecnologias. A Microsoft também está abrindo o código-fonte de seus novos modelos Phi-3.

(O New York Times processou a OpenAI e a Microsoft em dezembro por violação de direitos autorais de conteúdo de notícias relacionado a sistemas de IA.)

Depois que a OpenAI lançou o ChatGPT, Sam Altman, presidente-executivo da empresa, disse que o custo de cada chat era “centavos de um dígito”- uma despesa enorme, considerando o que serviços populares da web como a Wikipedia estão oferecendo por pequenas frações de centavo.

Agora, os pesquisadores dizem que seus modelos menores podem pelo menos se aproximar do desempenho de chatbots líderes como ChatGPT e Google Gemini. Essencialmente, os sistemas ainda podem analisar grandes quantidades de dados, mas armazenam os padrões que identificam num pacote menor que pode ser servido com menos poder de processamento.

Construir esses modelos é uma troca entre poder e tamanho. Sébastien Bubeck, pesquisador e vice-presidente da Microsoft, disse que a empresa construiu seus novos modelos menores refinando os dados que foram bombeados para eles, trabalhando para garantir que os modelos aprendissem com textos de maior qualidade.

Parte deste texto foi gerada pela própria IA — o que é conhecido como “dados sintéticos”. Em seguida, curadores humanos trabalharam para separar o texto mais nítido do resto.

A Microsoft construiu três modelos pequenos diferentes: Phi-3-mini, Phi-3-small e Phi-3-medium. O Phi-3-mini, que estará disponível na terça-feira, é o menor (e mais barato), mas o menos potente. Phi-3 Medium, que ainda não está disponível, é o mais poderoso, mas o maior e mais caro.

Tornar os sistemas pequenos o suficiente para serem conectados diretamente a um telefone ou computador pessoal “os tornará muito mais rápidos e muito mais baratos”, disse Gil Luria, analista do banco de investimentos DA Davidson.



Fuente