GPT-4, o mais recente modelo multimodal de linguagem grande (LLM) da OpenAI, pode explorar vulnerabilidades de dia zero de forma independente, de acordo com um estudo relatado por TechSpot.

O estudar por pesquisadores da Universidade de Illinois Urbana-Champaign mostrou que LLMs, incluindo GPT-4, podem executar ataques a sistemas utilizando vulnerabilidades não reveladas, conhecidas como falhas de dia zero. Como parte do serviço ChatGPT Plus, o GPT-4 demonstrou avanços significativos em relação aos seus antecessores em termos de penetração de segurança sem intervenção humana.

VEJA TAMBÉM:

ChatGPT foi atualizado – e OpenAI diz que é melhor nessas áreas principais

O estudo envolveu testar LLMs contra um conjunto de 15 vulnerabilidades “altas a criticamente graves” de vários domínios, como serviços web e pacotes Python, que não tinham patches existentes na época.

Velocidade da luz mashável

O GPT-4 demonstrou uma eficácia surpreendente ao explorar com sucesso 87% dessas vulnerabilidades, em comparação com uma taxa de sucesso de zero por cento de modelos anteriores como o GPT-3.5. As descobertas sugerem que o GPT-4 pode identificar e explorar de forma autônoma vulnerabilidades que os scanners de vulnerabilidades tradicionais de código aberto muitas vezes não percebem.

Por que isso é preocupante

As implicações de tais capacidades são significativas, com o potencial de democratizar as ferramentas do cibercrime, tornando-as acessíveis a indivíduos menos qualificados, conhecidos como “script-kiddies”. O professor assistente da UIUC, Daniel Kang, enfatizou os riscos representados por tais LLMs poderosos, que poderiam levar ao aumento de ataques cibernéticos se relatórios detalhados de vulnerabilidade permanecessem acessíveis.

Kang defende a limitação de divulgações detalhadas de vulnerabilidades e sugere medidas de segurança mais proativas, como atualizações regulares. No entanto, o seu estudo também observou a eficácia limitada da retenção de informações como estratégia de defesa. Kang enfatizou que há necessidade de abordagens de segurança robustas para enfrentar os desafios introduzidos por tecnologias avançadas de IA como o GPT-4.



Fuente