Announcing our new Paper: The Prompt Report, with Co-authors from OpenAI & Microsoft!

Check it out →
🔓 Hackeando Prompts 🟢 Medidas Ofensivas🟢 Injeção de Código

🟢 Injeção de Código

Última atualização em August 7, 2024 por Sander Schulhoff

A injeção de código1 é uma exploração de invasão de prompt em que o invasor é capaz de fazer com que o LLM execute código arbitrário (geralmente Python). Isso pode ocorrer em LLMs com ferramentas auxiliares, onde o LLM é capaz de enviar código para um interpretador, mas também pode ocorrer quando o próprio LLM é usado para avaliar código.

Relatos indicam que a injeção de código foi realizada em um aplicativo de IA, o MathGPT, e foi usada para obter sua chave de API da OpenAI (relatório do MITRE disponível em (MITRE report)).

Note

O MathGPT foi posteriormente protegido contra injeção de código. Por favor, não tente invadi-lo; eles pagam pelas chamadas de API.

Exemplo

Vamos trabalhar com um exemplo simplificado do aplicativo MathGPT. Vamos supor que ele receba um problema matemático e escreva código Python para tentar resolver o problema.

Aqui está o prompt usado no exemplo simplificado do aplicativo:

Escreva código Python para resolver o seguinte problema matemático:
{{user_input}}

Vamos invadi-lo abaixo:

Esse é um exemplo simples, mas mostra que esse tipo de ataque é significante e perigoso.

Footnotes

  1. Kang, D., Li, X., Stoica, I., Guestrin, C., Zaharia, M., & Hashimoto, T. (2023). Exploiting Programmatic Behavior of LLMs: Dual-Use Through Standard Security Attacks.

Word count: 0

Get AI Certified by Learn Prompting


Copyright © 2024 Learn Prompting.