Home Notícias Esta semana na IA: Com o fim da Chevron, a regulamentação da...

Esta semana na IA: Com o fim da Chevron, a regulamentação da IA ​​parece estar morta

23
0

Olá, pessoal, bem-vindos ao boletim informativo regular sobre IA do TechCrunch.

Nesta semana, na AI, a Suprema Corte dos EUA revogou a “deferência Chevron”, uma decisão de 40 anos sobre o poder das agências federais que exigia que os tribunais acatassem as interpretações das agências sobre as leis do Congresso.

A deferência da Chevron permitiu que as agências criassem suas próprias regras quando o Congresso deixou aspectos de seus estatutos ambíguos. Agora, espera-se que os tribunais exerçam seu próprio julgamento legal — e os efeitos podem ser de amplo alcance. Scott Rosenberg, da Axios escreve que o Congresso — dificilmente o mais funcional corpo hoje em dia — deve agora efetivamente tentar prever o futuro com sua legislação, já que as agências não podem mais aplicar regras básicas a novas circunstâncias de execução.

E isso poderia acabar de vez com as tentativas de regulamentação nacional da IA.

O Congresso já estava lutando para aprovar uma estrutura básica de política de IA — a ponto de reguladores estaduais de ambos os lados do corredor se sentirem compelidos a intervir. Agora, qualquer regulamentação que ele escrever terá que ser altamente específica para sobreviver a desafios legais — uma tarefa aparentemente intratável, dada a velocidade e imprevisibilidade com que a indústria de IA se move.

A juíza Elena Kagan mencionou a IA especificamente durante os argumentos orais:

Vamos imaginar que o Congresso promulgue um projeto de lei de inteligência artificial e ele tenha todos os tipos de delegações. Apenas pela natureza das coisas e especialmente pela natureza do assunto, haverá todos os tipos de lugares onde, embora não haja uma delegação explícita, o Congresso efetivamente deixou uma lacuna. … [D]Queremos que os tribunais preencham essa lacuna ou queremos que uma agência preencha essa lacuna?

Os tribunais preencherão essa lacuna agora. Ou os legisladores federais considerarão o exercício fútil e deixarão seus projetos de lei de IA de lado. Seja qual for o resultado final, regular a IA nos EUA acaba de se tornar ordens de magnitude mais difícil.

Notícias

Custos da IA ​​ambiental do Google: O Google emitiu seu Relatório Ambiental de 2024, um documento de mais de 80 páginas descrevendo os esforços da empresa para aplicar tecnologia a questões ambientais e mitigar suas contribuições negativas. Mas ele evita a questão de quanta energia a IA do Google está usando, escreve Devin. (A IA é notoriamente faminta por energia.)

Figma desabilita recurso de design: O CEO da Figma, Dylan Field, disse que a empresa desabilitará temporariamente seu recurso de IA “Make Design”, que supostamente estava copiando os designs do aplicativo Weather da Apple.

Meta muda seu rótulo de IA: Depois que a Meta começou a marcar fotos com um rótulo “Feito com IA” em maio, fotógrafos reclamaram que a empresa estava aplicando rótulos a fotos reais por engano. A Meta agora está mudando a tag para “Informações de IA” em todos os seus aplicativos em uma tentativa de aplacar os críticos, relata Ivan.

Gatos, cães e pássaros robôs: Brian escreve sobre como o estado de Nova York está distribuindo milhares de animais robôs para idosos em meio a uma “epidemia de solidão”.

Apple traz IA para o Vision Pro: Os planos da Apple vão além dos lançamentos previamente anunciados da Apple Intelligence no iPhone, iPad e Mac. De acordo com Mark Gurman, da Bloomberg, a empresa também está trabalhando para levar esses recursos aos seus headsets de realidade mista Vision Pro.

Artigo de pesquisa da semana

Modelos de geração de texto como o GPT-4o da OpenAI tornaram-se apostas de mesa em tecnologia. Raros são os aplicativos que não use-os hoje em dia para tarefas que vão desde preencher e-mails até escrever código.

Mas, apesar da popularidade dos modelos, como esses modelos “entendem” e geram texto com som humano não é uma ciência estabelecida. Em um esforço para descascar as camadas, pesquisadores da Northeastern University visto na tokenização, ou o processo de dividir o texto em unidades chamadas fichas que os modelos podem trabalhar mais facilmente.

Os modelos de geração de texto de hoje processam texto como uma série de tokens extraídos de um conjunto de “vocabulário de tokens”, onde um token pode corresponder a uma única palavra (“peixe”) ou a um pedaço de uma palavra maior (“sal” e “mon” em “salmão”). O vocabulário de tokens disponíveis para um modelo é normalmente determinado antes treinamento, com base nas características dos dados usados ​​para treiná-lo. Mas os pesquisadores encontraram evidências de que os modelos também desenvolvem uma vocabulário implícito que mapeia grupos de tokens — por exemplo, palavras com vários tokens como “nordeste” e a frase “quebre uma perna” — para “unidades” semanticamente significativas.

Com base nessas evidências, os pesquisadores desenvolveram uma técnica para “sondar” o vocabulário implícito de qualquer modelo aberto. Do Llama 2 da Meta, eles extraíram frases como “Lancaster”, “jogadores da Copa do Mundo” e “Royal Navy”, bem como termos mais obscuros como “jogadores da Bundesliga”.

O trabalho não foi revisado por pares, mas os pesquisadores acreditam que pode ser um primeiro passo para entender como as representações lexicais se formam em modelos — e servir como uma ferramenta útil para descobrir o que um determinado modelo “sabe”.

Modelo da semana

Uma equipe de pesquisa da Meta treinou vários modelos para criar ativos 3D (ou seja, formas 3D com texturas) a partir de descrições de texto, adequados para uso em projetos como aplicativos e videogames. Embora existam muitos modelos de geração de formas por aí, a Meta afirma que eles são “de última geração” e suportam renderização baseada em física, o que permite que os desenvolvedores “reacendam” objetos para dar a aparência de uma ou mais fontes de iluminação.

Os pesquisadores combinaram dois modelos, AssetGen e TextureGen, inspirados pelo gerador de imagens Emu da Meta em um único pipeline chamado 3DGen para gerar formas. O AssetGen converte prompts de texto (por exemplo, “um t-rex vestindo um suéter de lã verde”) em uma malha 3D, enquanto o TextureGen aumenta a “qualidade” da malha e adiciona uma textura para produzir a forma final.

Créditos da imagem: Meta

O 3DGen, que também pode ser usado para retexturizar formas existentes, leva cerca de 50 segundos do início ao fim para gerar uma nova forma.

“Combinando [these models’] pontos fortes, o 3DGen alcança síntese de objetos 3D de altíssima qualidade a partir de prompts textuais em menos de um minuto”, escreveram os pesquisadores em um artigo técnico. “Quando avaliado por artistas 3D profissionais, a saída do 3DGen é preferida na maioria das vezes em comparação com alternativas da indústria, particularmente para prompts complexos.”

A Meta parece pronta para incorporar ferramentas como o 3DGen em seus esforços de desenvolvimento de jogos no metaverso. De acordo com um Anúncio de empregoa empresa está buscando pesquisar e prototipar jogos de RV, RA e realidade mista criados com a ajuda de tecnologia de IA generativa — incluindo, presumivelmente, geradores de formas personalizadas.

Saco de surpresas

A Apple pode obter um assento de observadora no conselho da OpenAI como resultado da parceria entre as duas empresas anunciada no mês passado.

Bloomberg relatórios que Phil Schiller, executivo da Apple responsável por liderar a App Store e os eventos da Apple, se juntará ao conselho de diretores da OpenAI como seu segundo observador, depois de Dee Templeton, da Microsoft.

Se a mudança for concretizada, será uma demonstração notável de poder por parte da Apple, que planeja integrar a plataforma de chatbot com inteligência artificial ChatGPT da OpenAI com muitos de seus dispositivos neste ano como parte de um conjunto mais amplo de recursos de IA.

A Apple não será pagando OpenAI para a integração do ChatGPT, supostamente tendo feito o argumento de que a exposição de RP é tão valiosa quanto — ou mais valiosa do que — dinheiro. Na verdade, a OpenAI pode acabar pagando Maçã; Dizem que a Apple está pensando em um acordo pelo qual ela obteria uma parte da receita de quaisquer recursos premium do ChatGPT que a OpenAI trouxesse para as plataformas da Apple.

Então, como meu colega Devin Coldewey apontou, isso coloca a colaboradora próxima da OpenAI e grande investidora Microsoft na posição embaraçosa de efetivamente subsidiar a integração do ChatGPT da Apple — com pouco a mostrar por isso. O que a Apple quer, ela obtém, aparentemente — mesmo que isso signifique uma contenciosa que seus parceiros tenham que amenizar.

Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here