Ferramentas de proteção e backup que garantem continuidade da sua empresa!

Usa ChatGPT? Seus dados podem estar em perigo; entenda motivo

ChatGPT pode ser engando por malwares com comandos disfarçados de código, em um novo modo de injeção de prompt que inaugura era de ataques virtuais; conheça ameaça

O ataque foi descoberto no início do mês de junho em uma amostra do malware enviada para o sistema VirusTotal, a partir da Holanda. Algumas partes do código de programação não estavam totalmente funcionais e pareciam incompletas. Entretanto, uma string (uma linha de programação) parecia dar um comando para enganar uma IA, e não para um humano. O prompt foi instalado no sistema para desorientar a inteligência artificial e sequestrar o fluxo de consciência aprendido até ali, ordenando que ela emitisse uma resposta falsa.

Os pesquisadores testaram a amostra de malware em um sistema de análise interno e o malware não obteve sucesso. A IA sinalizou o arquivo como malicioso e apresentou uma resposta afirmando que aquele era um ataque de injeção de prompt.

Segundo a empresa, este foi o primeiro caso de malware projetado especificamente para enganar ferramentas de segurança baseadas em IA. Embora a técnica tenha sido ineficaz, o ataque acende um alerta sobre o desenvolvimento de ataques contra sistemas de inteligência artificial, e como eles podem ser mais perigosos à medida que se tornem mais refinados.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Related Post