Home Notícias O OpenAI foi hackeado ano passado, de acordo com novo relatório. Não...

O OpenAI foi hackeado ano passado, de acordo com novo relatório. Não foi dito ao público por esse motivo.

21
0

Um hacker obteve detalhes sobre as tecnologias de IA da OpenAI no início do ano passado, O jornal New York Times relatado. O cibercriminoso supostamente roubou informações confidenciais de um fórum de discussão onde funcionários conversavam sobre os modelos mais recentes da empresa.

O jornal New York Times foi discreto sobre a fonte desta notícia, alegando que “duas pessoas familiarizadas com o incidente” contaram tudo. No entanto, eles sustentam que o cibercriminoso apenas violou o fórum — não os sistemas principais que alimentam os algoritmos e a estrutura de IA da OpenAI.

A OpenAI teria revelado o hack aos funcionários durante uma reunião geral em abril de 2023. Ela também informou o conselho de diretores. No entanto, os executivos da OpenAI decidiram não compartilhar a notícia publicamente.

VEJA TAMBÉM:

A OpenAI supostamente planeja bloquear o acesso na China. Empresas chinesas de IA podem preencher o vazio.

Por que a OpenAI manteve a violação em segredo?

De acordo com O jornal New York TimesA OpenAI não revelou o hack ao público porque as informações sobre os clientes eram não roubado.

A empresa também não compartilhou a violação com o FBI ou qualquer outra entidade policial.

Velocidade da luz Mashable

“Os executivos não consideraram o incidente uma ameaça à segurança nacional porque acreditavam que o hacker era um indivíduo sem vínculos conhecidos com um governo estrangeiro”, disse o jornal.

O jornal New York Times’ fontes dizem que alguns funcionários da OpenAI expressaram medo de que adversários baseados na China pudessem roubar os segredos de IA da empresa, causando uma ameaça à segurança nacional dos EUA.

Leopold Aschenbrenner, líder da equipe de superalinhamento da OpenAI (uma unidade focada em garantir que a IA não saia do controle) na época, supostamente compartilhava os mesmos sentimentos sobre a segurança frouxa e ser um alvo fácil para inimigos estrangeiros.

Aschenbrenner disse ele foi demitido no começo deste ano por compartilhar um documento interno com três pesquisadores externos para “feedback”. Ele insinua que sua demissão foi injusta; ele examinou o documento em busca de qualquer informação sensível, acrescentando que é normal que os funcionários da OpenAI entrem em contato com outros especialistas para uma segunda opinião.

No entanto, O jornal New York Times destaca que estudos conduzidos pela Anthropic e OpenAI revelam que a IA “não é significativamente mais perigosa” do que mecanismos de busca como o Google.

Ainda assim, as empresas de IA devem garantir que sua segurança seja rigorosa. Os legisladores estão a pressionar por regulamentações que aplicam multas pesadas a empresas com tecnologias de IA que causam danos sociais.

Tópicos
Inteligência Artificial OpenAI



Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here