Home Notícias Veja como o Google acha que a IA deveria ser regulamentada

Veja como o Google acha que a IA deveria ser regulamentada

Veja como o Google acha que a IA deveria ser regulamentada

À medida que os governos estaduais e federais buscam a regulamentação da IA, o Google concorda com suas próprias ideias.

Na quarta-feira, a gigante da tecnologia Publicados uma postagem no blog intitulada “7 princípios para acertar a regulamentação da IA”. Não é novidade que a mensagem geral é que a IA deve ser regulamentada, mas não ao ponto de dificultar a inovação. “Estamos no meio de uma corrida tecnológica global”, escreveu Kent Walker, presidente de assuntos globais do Google e da controladora Alphabet. “E como todas as corridas tecnológicas, é uma competição que será vencida não pelo país que inventar algo primeiro, mas pelos países que o implementarem melhor, em todos os setores.”

O Google e empresas de IA como a OpenAI assumiram publicamente uma atitude cooperativa em relação à regulamentação da IA, citando a ameaça de risco existencial. O CEO do Google, Sundar Pichai, participou dos Fóruns de Inteligência de IA do Senado para informar como o Congresso deveria legislar sobre IA. Mas alguns a favor de um ecossistema de IA menos regulamentado e de código mais aberto criticaram o Google e outros por fomentarem o medo, a fim de conseguirem a captura regulatória.

“Altman, Hassabis e Amodei são os que estão fazendo lobby corporativo massivo no momento”, disse Meta Chief AI Scientist Yann LeCun, referindo-se aos CEOs da OpenAI, Google DeepMind e Anthropic respectivamente. “Se as suas campanhas de fomento do medo tiverem sucesso, elas irão inevitavelmente resultaria no que você e eu identificaríamos como uma catástrofe: um pequeno número de empresas controlará a IA.”

Velocidade da luz Mashable

Walker fez referência à ordem executiva da Casa Branca sobre IA, ao roteiro de políticas de IA proposto pelo Senado dos EUA e aos recentes projetos de lei sobre IA em Califórnia e Connecticut. Embora o Google afirme que apoia estes esforços, a legislação sobre IA deve concentrar-se na regulamentação de resultados específicos do desenvolvimento da IA, e não em leis gerais que reprimam o desenvolvimento. “O progresso da inovação americana requer intervenção em pontos de danos reais, e não inibidores generalizados da investigação”, disse Walker, que referiu numa secção sobre “lutar pelo alinhamento” que foram propostas mais de 600 propostas de lei só nos EUA.

A postagem do Google também abordou brevemente a questão da violação de direitos autorais e como e quais dados são usados ​​para treinar modelos de IA. As empresas com modelos de IA argumentam que a utilização de dados publicamente disponíveis na web constitui uso justo, foram acusadas por empresas de mídia e, mais recentemente, grandes gravadoras de violar direitos autorais e lucrar com isso.

Walker reafirma essencialmente o argumento do uso justo, mas reconhece que deveria haver mais transparência e controle sobre os dados de treinamento de IA, dizendo que “os proprietários de sites deveriam poder usar ferramentas legíveis por máquina para optar por não permitir que o conteúdo de seus sites fosse usado para treinamento de IA”. .”

O princípio de “apoiar a inovação responsável” abrange “riscos conhecidos” em termos gerais. Mas não entra em detalhes sobre, por exemplo, a supervisão regulamentar para evitar imprecisões flagrantes nas respostas generativas da IA ​​que poderiam alimentar a desinformação e causar danos.

Para ser justo, ninguém levou a sério quando o resumo de IA do Google recomendou colocar cola na pizza, mas é um exemplo recente que ressalta a discussão em andamento sobre a responsabilização por falsidades geradas por IA e implantação responsável.

Tópicos
Inteligência ArtificialGoogle



Fuente