O que é promptware? Origens, definição, riscos e medidas de proteção
Se você está de alguma forma próximo da área de TI hoje em dia — no sentido mais amplo do termo — “prompt” provavelmente é algo que você ouve com mais frequência do que gostaria. O advento dos grandes modelos de linguagem (LLMs), comumente chamados de IAs, trouxe essa palavra simples para os holofotes, já que o uso de prompts é a maneira pela qual o usuário diz a esses modelos o que fazer e qual deve ser o resultado.
O alcance da inteligência artificial em todos os aspectos do nosso cotidiano está crescendo. Mesmo considerando os truques de marketing que exploram a noção de IA quando na verdade não há nenhuma, a disseminação da tecnologia é impressionante. E também torna as coisas mais naturais e úteis: digitar ou dizer solicitações (prompts) em linguagem comum e vê-las serem atendidas/executadas é, na maioria dos casos, uma experiência confortável.
Há, é claro, o outro lado da moeda. Parece que quanto mais inteligente o sistema, mais pontos de entrada ele oferece a agentes mal-intencionados, e maior o dano que podem causar quando assumem o controle. E uma das formas de chegar lá é por meio de um ataque de promptware.
Então, o que é promptware?
O termo promptware foi cunhado por um grupo de pesquisadores chineses em seu artigo “Promptware Engineering: Software Engineering for LLM Prompt Development” (publicado em 4 de março de 2025), que, como o título sugere, explora o uso de prompts como um instrumento de programação aplicável a LLMs e propõe formalizar a engenharia de promptware como uma disciplina completa, com metodologia e sistema próprios.
A ameaça dos ataques de promptware
Outro estudo recente, intitulado “Invitation is All You Need,” mostrou como um ataque de promptware realmente funciona. Basicamente, a equipe por trás desse trabalho conseguiu enganar a IA Gemini do Google para fazer uma série de coisas prejudiciais, desde mexer na configuração da casa inteligente, passando por explorar o ecossistema online (enviar spam, gerar conteúdo tóxico, excluir eventos do calendário, exfiltrar e-mails, etc.) até rastrear a localização do usuário. A IA foi forçada a fazer tudo isso por meio de um simples convite de calendário; acontece que (qualquer?) ação que o usuário tome em resposta a tal evento, como dizer ao Gemini para enviar uma carta de agradecimento, pode ser um gatilho que desbloqueia instruções maliciosas embutidas no título do convite. Dizem que isso funciona com linhas de assunto de e-mail também.
Prompt hacking (injeção, sequestro) vs. ataque de promptware
Você talvez já tenha ouvido falar de prompt hacking, injection ou hijacking antes (em grande medida, são termos intercambiáveis e diferem em algumas especificidades bastante intrincadas). Em que essa técnica difere de um ataque de promptware?
Prompt hacking trata de elaborar prompts de modo a manipular um LLM para que adote comportamentos não intencionados ou prejudiciais. As instruções projetadas para anular/contornar as restrições embutidas da IA são inseridas no prompt. O termo foi cunhado em 2022; hoje, é um rótulo guarda-chuva para tentativas maliciosas de fazer com que modelos de IA realizem algo que não deveriam.
Ataque de promptware descreve o tipo de ataques que explora prompts em linguagem natural usados como interface de programação com o objetivo de controlar o comportamento de LLMs. É mais profundo e amplo do que o prompt hacking ou a injeção e, na verdade, pode incorporar essa técnica como um dos componentes de um ataque em cascata. Ataques de promptware são o próximo passo evolutivo das atividades maliciosas destinadas a comprometer e explorar ecossistemas de IA integrados.
Como se proteger contra ataques de promptware
Injeções de prompt não são novidade, o que significa que os desenvolvedores de sistemas de IA já criaram soluções defensivas capazes de também conter ataques de promptware. Além disso, há novas regras de higiene digital que ajudam a evitar desdobramentos desfavoráveis.
- Escolha fornecedores de IA de renome. Sim, o experimento mencionado acima explora a IA Gemini do Google, mas lições assim costumam ser aprendidas rapidamente. Se você está procurando equipar sua casa com um assistente com IA, opte por fornecedores que são meticulosos na proteção de seus clientes.
- Proteja o sistema contra acessos não autorizados. A maioria das configurações de casas inteligentes e outros sistemas voltados ao consumidor que dependem de LLMs permite ajustar o nível de segurança de brando a rígido. Opte pelo rígido, mesmo que isso limite as capacidades do sistema em questão.
- Proteja todo o resto da própria IA. A maioria dos softwares hoje quer aprender o máximo possível sobre você, já que esse tipo de informação pode ser monetizado. Sistemas alimentados por LLM provavelmente agirão de forma semelhante, independentemente de seu propósito. Aplique o princípio do menor privilégio: limite o acesso da IA apenas aos dados ou controles necessários para a tarefa específica para a qual foi implantada.
- Monitore as interações e o comportamento da IA. Qualquer sistema que valha a pena mantém logs (se não mantém, isso é um alerta); examine-os de tempos em tempos e não hesite em, pelo menos, pesquisar online entradas suspeitas ou, melhor ainda, contatar o suporte e perguntar do que se trata.
- Mantenha ativos apenas os recursos necessários. Em uma casa inteligente, você pode, por exemplo, não precisar mais de um alimentador automático para gatos. Ao se desfazer do dispositivo físico, não se esqueça de desconectá-lo da IA também.
Caso o que esteja em risco sejam informações que você pode perder em um ataque de promptware, faz sentido implementar um plano de backup sólido. Leia estas publicações para obter conselhos e recomendações de software: