Pesquisadores de segurança identificaram uma nova vulnerabilidade preocupante em modelos GPT-3, conhecida como WormGPT. Essa vulnerabilidade permite que um invasor execute um ataque wormable, o que significa que o código malicioso pode se espalhar automaticamente para outros sistemas vulneráveis, sem a necessidade de interação humana.
A vulnerabilidade WormGPT explora a capacidade dos modelos GPT-3 de gerar código em linguagens de programação. Os pesquisadores descobriram que, ao alimentar o GPT-3 com um código de exemplo, o modelo pode gerar continuamente código semelhante, permitindo que um invasor crie um worm de computador que se propaga automaticamente.
Esse tipo de ataque wormable é particularmente perigoso, pois pode se espalhar rapidamente para outros sistemas conectados à rede, causando danos em grande escala. O WormGPT pode ser usado para executar ataques de negação de serviço, roubo de informações confidenciais e até mesmo para assumir o controle de sistemas comprometidos.
Os pesquisadores relataram suas descobertas à OpenAI, a empresa reconheceu a gravidade da vulnerabilidade e já estão corrigindo.
fonte: gbhackers