Home Notícias Ex-executivos da OpenAI denunciam a falta de transparência da empresa

Ex-executivos da OpenAI denunciam a falta de transparência da empresa

36
0

Ex-membros do conselho da OpenAI estão pedindo maior regulamentação governamental da empresa enquanto a liderança do CEO Sam Altman está sob ataque.

Helen Toner e Tasha McCauley — dois dos vários ex-funcionários que formaram o elenco dos personagens que destituíram Altman em novembro – dizem que sua decisão de expulsar o líder e “salvar” a estrutura regulatória da OpenAI foi estimulada por “padrões de comportamento de longa data exibidos pelo Sr. Altman”, que “minaram a supervisão do conselho das principais decisões e protocolos de segurança internos .”

Escrevendo em um Op-Ed publicado por O economista em 26 de maio, Toner e McCauley alegam que o padrão de comportamento de Altman, combinado com a confiança na autogovernança, é uma receita para o desastre da AGI.

VEJA TAMBÉM:

A FCC pode exigir rótulos de IA para anúncios políticos

Embora os dois digam que ingressaram na empresa “cautelosamente otimistas” sobre o futuro da OpenAI, reforçados pelas motivações aparentemente altruístas da empresa na época exclusivamente sem fins lucrativos, os dois questionaram desde então as ações de Altman e da empresa. “Vários líderes seniores compartilharam em particular graves preocupações com o conselho”, escrevem eles, “dizendo acreditar que o Sr. Altman cultivava uma ‘cultura tóxica de mentira’ e se envolvia em ‘comportamentos [that] pode ser caracterizado como abuso psicológico.'”

“Os desenvolvimentos desde que ele retornou à empresa – incluindo sua reintegração ao conselho e a saída de talentos seniores focados em segurança – são um mau presságio para o experimento OpenAI de autogoverno”, continuam eles. “Mesmo com a melhor das intenções, sem supervisão externa, este tipo de auto-regulação acabará por ser inexequível, especialmente sob a pressão de imensos incentivos ao lucro. Os governos devem desempenhar um papel activo.”

Em retrospectiva, Toner e McCauley escrevem: “Se alguma empresa pudesse ter governado a si mesma com sucesso enquanto desenvolvia sistemas avançados de IA de forma segura e ética, teria sido OpenAI.”

Velocidade da luz mashável

VEJA TAMBÉM:

O que o drama de Scarlett Johansson da OpenAI nos diz sobre o futuro da IA

Os ex-membros do conselho argumentam contra a atual pressão por auto-relatos e regulamentação externa bastante mínima das empresas de IA, à medida que as leis federais estagnam. No exterior, as forças-tarefa de IA já estão encontrando falhas em confiar nos gigantes da tecnologia para liderar os esforços de segurança. Na semana passada, a UE emitiu um aviso de mil milhões de dólares à Microsoft depois de esta não ter divulgado os riscos potenciais do seu CoPilot e Image Creator alimentado por IA. Um relatório recente do AI Safety Institute do Reino Unido descobriu que as proteções de vários dos maiores Large Language Models (LLMs) públicos foram facilmente desbloqueadas por prompts maliciosos.

Nas últimas semanas, a OpenAI tem estado no centro da conversa sobre regulamentação da IA, após uma série de demissões de alto nível por parte de funcionários de alto escalão que citaram opiniões divergentes sobre o seu futuro. Depois que o cofundador e chefe de sua equipe de superalinhamento, Ilya Sutskever, e seu colíder Jan Leike deixaram a empresa, a OpenAI dissolveu sua equipe interna de segurança.

Leike disse estar preocupado com o futuro da OpenAI, já que “a cultura e os processos de segurança ficaram em segundo plano em relação aos produtos brilhantes”.

VEJA TAMBÉM:

Um dos líderes de segurança da OpenAI renunciou na terça-feira. Ele apenas explicou o porquê.

Altman foi criticado por uma empresa então revelada política de desligamento isso força os funcionários que estão saindo a assinar NDAs que os restringem de dizer qualquer coisa negativa sobre a OpenAI ou correm o risco de perder qualquer patrimônio que tenham no negócio.

Pouco depois, Altman e o presidente e cofundador Greg Brockman responderam à controvérsia, escrevendo no X: “O futuro será mais difícil do que o passado. Precisamos continuar elevando nosso trabalho de segurança para corresponder aos riscos de cada novo modelo. ..Também continuamos a colaborar com governos e muitas partes interessadas em matéria de segurança. Não existe um manual comprovado sobre como navegar no caminho para a AGI.

Aos olhos de muitos dos ex-funcionários da OpenAI, a filosofia historicamente “leve” da regulamentação da Internet não vai funcionar.

Tópicos
Inteligência Artificial OpenAI



Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here