Home Notícias Esta semana em IA: o destino da IA ​​generativa está nas mãos...

Esta semana em IA: o destino da IA ​​generativa está nas mãos dos tribunais

24
0

Olá, pessoal, sejam bem-vindos ao boletim informativo regular de IA do TechCrunch.

Nesta semana, na IA, gravadoras acusaram duas startups que desenvolvem geradores de músicas com tecnologia de IA, a Udio e a Suno, de violação de direitos autorais.

A RIAA, organização comercial que representa a indústria fonográfica dos EUA, anunciou ações judiciais contra as empresas na segunda-feira, movidas pela Sony Music Entertainment, Universal Music Group, Warner Records e outros. Os processos alegam que Udio e Suno treinaram os modelos generativos de IA que sustentam suas plataformas na música das gravadoras sem compensar essas gravadoras – e solicitam US$ 150.000 em compensação por trabalho supostamente violado.

“As produções musicais sintéticas poderão saturar o mercado com conteúdos gerados por máquinas que competirão directamente, baratearão e, em última análise, abafarão as gravações sonoras genuínas sobre as quais o serviço é construído”, afirmam as editoras nas suas reclamações.

Os processos se somam ao crescente corpo de litígios contra fornecedores de IA generativa, inclusive contra grandes empresas como a OpenAI, argumentando praticamente a mesma coisa: que as empresas que treinam em obras protegidas por direitos autorais devem pagar aos detentores dos direitos ou pelo menos creditá-los – e permitir que eles optem por não participar do treinamento. se quiserem. Os fornecedores há muito reivindicam proteções de uso justo, afirmando que os dados protegidos por direitos autorais nos quais treinam são públicos e que seus modelos criam trabalhos transformadores, e não plágios.

Então, como os tribunais decidirão? Essa, caro leitor, é a questão de um bilhão de dólares – e que levará séculos para ser resolvida.

Você pensaria que seria um golpe certeiro para os detentores de direitos autorais, com o montagem evidência que os modelos generativos de IA podem quase regurgitar (ênfase em aproximadamente) literalmente a arte, os livros, as músicas protegidas por direitos autorais e assim por diante em que foram treinados. Mas há um resultado em que os fornecedores de IA generativa saem impunes – e devem ao Google a sua boa sorte por estabelecerem o precedente consequente.

Mais de uma década atrás, o Google começou a escanear milhões de livros para construir um arquivo para o Google Books, uma espécie de mecanismo de busca para conteúdo literário. Autores e editores processaram o Google pela prática, alegando que reproduzir sua propriedade intelectual on-line equivalia a uma infração. Mas eles perderam. Em apelação, um tribunal decidiu que a cópia do Google Books tinha um “propósito transformador altamente convincente”.

Os tribunais poderão decidir que a IA generativa também tem um “propósito transformador altamente convincente”, se os demandantes não conseguirem demonstrar que os modelos dos fornecedores realmente plagiam em grande escala. Ou, como Alex Reisner do The Atlantic propõe, pode não haver uma decisão única sobre se a tecnologia de IA generativa como um todo infringe. Os juízes poderiam muito bem determinar os vencedores modelo por modelo, caso a caso – levando em consideração cada resultado gerado.

Meu colega Devin Coldewey colocou isso de forma sucinta em um artigo esta semana: “Nem toda empresa de IA deixa suas impressões digitais na cena do crime com tanta liberalidade”. À medida que o litígio se desenrola, podemos ter a certeza de que os fornecedores de IA cujos modelos de negócio dependem dos resultados estão a tomar notas detalhadas.

Notícias

Modo de voz avançado atrasado: A OpenAI atrasou o modo de voz avançado, a experiência de conversação assustadoramente realista e quase em tempo real para sua plataforma de chatbot alimentada por IA ChatGPT. Mas não há mãos ociosas na OpenAI, que também adquiriu esta semana a startup de colaboração remota Multi e lançou um cliente macOS para todos os usuários do ChatGPT.

A estabilidade é uma tábua de salvação: No precipício financeiro, a Stability AI, criadora do modelo aberto de geração de imagens Stable Diffusion, foi salva por um grupo de investidores que incluía o fundador do Napster, Sean Parker, e o ex-CEO do Google, Eric Schmidt. Com as dívidas perdoadas, a empresa também nomeou um novo CEO, o ex-chefe da Weta Digital, Prem Akkaraju, como parte de um amplo esforço para recuperar sua posição no cenário ultracompetitivo de IA.

Gêmeos chega ao Gmail: O Google está lançando um novo painel lateral de IA com tecnologia Gemini no Gmail que pode ajudá-lo a escrever e-mails e resumir tópicos. O mesmo painel lateral está chegando ao restante do pacote de aplicativos de produtividade do gigante das buscas: Documentos, Planilhas, Apresentações e Drive.

Excelente curador: O cofundador da Goodreads, Otis Chandler, lançou o Smashing, um aplicativo de recomendação de conteúdo alimentado por IA e pela comunidade com o objetivo de ajudar a conectar os usuários aos seus interesses, trazendo à tona as jóias escondidas da Internet. Smashing oferece resumos de notícias, trechos importantes e citações interessantes, identificando automaticamente tópicos e tópicos de interesse de usuários individuais e incentivando-os a curtir, salvar e comentar artigos.

A Apple diz não à IA da Meta: Dias depois Jornal de Wall Street relatou que a Apple e a Meta estavam em negociações para integrar os modelos de IA deste último, Mark Gurman da Bloomberg disse que a fabricante do iPhone não estava planejando tal movimento. A Apple arquivou a ideia de colocar a IA da Meta em iPhones por preocupações com privacidade, disse a Bloomberg — e a ótica de parceria com uma rede social cujas políticas de privacidade são frequentemente criticadas.

Artigo de pesquisa da semana

Cuidado com os chatbots de influência russa. Eles podem estar bem debaixo do seu nariz.

No início deste mês, Axios destacou um estudar da NewsGuard, a organização de combate à desinformação, que descobriu que os principais chatbots de IA estão regurgitando trechos de campanhas de propaganda russas.

O NewsGuard entrou em 10 chatbots líderes – incluindo ChatGPT da OpenAI, Claude da Anthropic e Gemini do Google – várias dezenas de solicitações perguntando sobre narrativas conhecidas por terem sido criadas por propagandistas russos, especificamente o fugitivo americano John Mark Dougan. Segundo a empresa, os chatbots responderam com desinformação em 32% das vezes, apresentando como fatos relatórios falsos escritos em russo.

O estudo ilustra o aumento do escrutínio sobre os fornecedores de IA à medida que se aproxima a época eleitoral nos EUA. Microsoft, OpenAI, Google e uma série de outras empresas líderes de IA concordaram na Conferência de Segurança de Munique, em fevereiro, em tomar medidas para conter a propagação de deepfakes e desinformação relacionada com eleições. Mas o abuso da plataforma continua desenfreado.

“Este relatório realmente demonstra em detalhes por que a indústria deve dar atenção especial às notícias e informações”, disse o co-CEO da NewsGuard, Steven Brill, à Axios. “Por enquanto, não confie nas respostas fornecidas pela maioria desses chatbots para questões relacionadas a notícias, especialmente questões polêmicas.”

Modelo da semana

Pesquisadores do Laboratório de Ciência da Computação e Inteligência Artificial (CSAIL) do MIT afirmam ter desenvolvido um modelo, DenseAV, que pode aprender uma linguagem prevendo o que vê a partir do que ouve – e vice-versa.

Os pesquisadores, liderados por Mark Hamilton, estudante de doutorado do MIT em engenharia elétrica e ciência da computação, foram inspirados para criar o DenseAV pelas formas não-verbais de comunicação dos animais. “Pensamos que talvez precisássemos usar áudio e vídeo para aprender um idioma”, disse ele ao MIT CSAIL’s assessoria de imprensa. “Existe uma maneira de deixar um algoritmo assistir TV o dia todo e, a partir disso, descobrir do que estamos falando?”

O DenseAV processa apenas dois tipos de dados – áudio e visuais – e o faz separadamente, “aprendendo” comparando pares de sinais de áudio e visuais para descobrir quais sinais correspondem e quais não. Treinado em um conjunto de dados de 2 milhões de vídeos do YouTube, o DenseAV pode identificar objetos a partir de seus nomes e sons, pesquisando e agregando todas as correspondências possíveis entre um clipe de áudio e os pixels de uma imagem.

Quando o DenseAV ouve um cachorro latindo, por exemplo, uma parte do modelo se concentra na linguagem, como a palavra “cachorro”, enquanto outra parte se concentra nos sons do latido. Os pesquisadores dizem que isso mostra que o DenseAV pode não apenas aprender o significado das palavras e a localização dos sons, mas também aprender a distinguir entre essas conexões “cruzadas”.

Olhando para o futuro, a equipa pretende criar sistemas que possam aprender com grandes quantidades de dados apenas de vídeo ou áudio — e ampliar o seu trabalho com modelos maiores, possivelmente integrados com o conhecimento de modelos de compreensão de linguagem para melhorar o desempenho.

Sacola

Ninguém pode acusar Mira Murati, CTO da OpenAI, de não ser consistentemente sincero.

Falando durante um serão na Escola de Engenharia de Dartmouth, Murati admitiu que, sim, a IA generativa eliminará alguns empregos criativos – mas sugeriu que esses empregos “talvez não devessem estar lá em primeiro lugar”.

“Certamente prevejo que muitos empregos mudarão, alguns empregos serão perdidos, alguns empregos serão ganhos”, continuou ela. “A verdade é que ainda não compreendemos realmente o impacto que a IA terá nos empregos.”

Os criativos não gostaram dos comentários de Murati – e não é de admirar. Deixando de lado o fraseado apático, a OpenAI, assim como os já mencionados Udio e Suno, enfrenta litígios, críticos e reguladores alegando que está lucrando com o trabalho dos artistas sem compensá-los.

A OpenAI prometeu recentemente lançar ferramentas para permitir aos criadores maior controle sobre como suas obras são usadas em seus produtos, e continua a assinar acordos de licenciamento com detentores de direitos autorais e editores. Mas a empresa não está exactamente a fazer lobby pelo rendimento básico universal – ou a liderar qualquer esforço significativo para requalificar ou melhorar as competências da força de trabalho que a sua tecnologia está a afectar.

Um recente pedaço no The Wall Street Journal descobriu que os contratos de trabalho que exigem redação, codificação e tradução básicas estão desaparecendo. E um estudar publicado em novembro passado mostra que, após o lançamento do ChatGPT da OpenAI, os freelancers conseguiram menos empregos e ganharam muito menos.

A missão declarada da OpenAI, pelo menos até que se torne um empresa com fins lucrativos, é “garantir que a inteligência artificial geral (AGI) – sistemas de IA que são geralmente mais inteligentes que os humanos – beneficie toda a humanidade”. Não alcançou AGI. Mas não seria louvável se a OpenAI, fiel à parte de “beneficiar toda a humanidade”, reservasse até mesmo uma pequena fração de sua receita (US$ 3,4 bilhões +) para pagamentos aos criadores, para que não sejam arrastados pela inundação de IA generativa?

Eu posso sonhar, não posso?

Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here