Com o crescente uso de modelos de linguagem como o ChatGPT, surge uma nova ameaça: a infecção por vírus. Esses modelos, antes considerados inofensivos, podem ser vulneráveis a ataques que podem causar danos significativos, como vazamento de dados, disseminação de spam e até mesmo ataques de negação de serviço.

O vírus Morse 2, inspirado no primeiro worm da história, Morris, aproveita as vulnerabilidades dos modelos de linguagem para se propagar pela rede, enganando os sistemas e infiltrando-se no ecossistema de IA. Esse vírus, na forma de um prompt malicioso, pode se auto-replicar e forçar o modelo a executar ações não autorizadas, como gerar respostas ofensivas ou até mesmo vazar informações confidenciais.
A técnica Reg, que permite aos modelos de linguagem responder a perguntas específicas acessando dados de bancos de dados, acaba sendo um ponto fraco. O vírus Morse 2 pode se infiltrar no banco de dados e enviar informações confidenciais para o modelo, que as incluirá na resposta, expondo dados sensíveis.
O vírus Morse 2 é extremamente insidioso, pois se propaga sem que o usuário precise clicar em nada. Basta que o modelo leia um e-mail contendo o prompt malicioso para que a infecção ocorra. A empresa pode até mesmo registrar a mensagem envenenada no banco de dados, repassando-a para outros usuários.
Além de vazar dados, o vírus também pode ser usado para gerar spam, disseminar informações irrelevantes ou até mesmo sobrecarregar os modelos com solicitações, impedindo-os de atender aos usuários reais.
A vulnerabilidade dos modelos de linguagem a vírus representa um risco real para o futuro da IA, especialmente em um cenário onde essas ferramentas se tornam cada vez mais essenciais para diversos serviços e sistemas. A dependência de IA em áreas como segurança, saúde e finanças exige que essas vulnerabilidades sejam corrigidas com urgência.
Para garantir a segurança dos modelos de linguagem, é fundamental investir em medidas de segurança robustas, como análise de prompts, detecção de código malicioso e mecanismos de isolamento dos modelos. Além disso, é importante ter em mente que, por enquanto, a validação humana continua sendo crucial para garantir que os resultados gerados pelos modelos sejam confiáveis e seguros.