A OpenAI está se aprofundando na autogovernança do setor à medida que a empresa anuncia um equipe de segurança renovadana sequência de várias demissões públicas e da dissolução do seu antigo órgão de supervisão.
O Comitê de Segurança e Proteção, como foi renomeado, é liderado pelos membros do conselho e diretores Bret Taylor (Sierra), Adam D’Angelo (Quora), Nicole Seligman e – é claro – CEO da OpenAI, Sam Altman. Outros membros incluem “especialistas técnicos e políticos da OpenAI”, incluindo chefes de “Preparação”, “Sistemas de Segurança” e “Ciência de Alinhamento”.
“A OpenAI começou recentemente a treinar seu próximo modelo de fronteira e prevemos que os sistemas resultantes nos levarão ao próximo nível de capacidades em nosso caminho para AGI”, escreveu OpenAI. “Embora estejamos orgulhosos de construir e lançar modelos que são líderes do setor em termos de capacidades e segurança, acolhemos com satisfação um debate robusto neste momento importante”.
OpenAI confirma sucessor do GPT-4 em fase de treinamento
A primeira tarefa do comitê é “avaliar e desenvolver ainda mais o OpenAI processos e salvaguardas nos próximos 90 dias”, escreveu a empresa em seu anúncio, com feedback de especialistas externos que já estão na lista de supervisão externa da OpenAI, como o ex-diretor de segurança cibernética da NSA, Rob Joyce.
Velocidade da luz mashável
O anúncio é uma resposta oportuna a uma controvérsia de gestão turbulenta na OpenAI, embora possa fazer pouco para tranquilizar os olhos atentos e os defensores da supervisão externa. Esta semana, ex-membros do conselho da OpenAI pediram uma regulamentação governamental mais intensa do setor de IA, destacando especificamente as más decisões de gestão e a cultura tóxica promovida por Altman no papel de líder da OpenAI.
“Mesmo com a melhor das intenções, sem supervisão externa, este tipo de auto-regulação acabará por ser inexequível, especialmente sob a pressão de imensos incentivos ao lucro”, argumentaram.
O novo comité da OpenAI está a ser atirado directamente ao fogo, com um mandato imediato para avaliar as salvaguardas de IA da empresa. Mas mesmo isso pode não ser suficiente.
Tópicos
Inteligência Artificial OpenAI