TL;DR: O artigo apresenta 17 técnicas de engenharia de prompt que podem melhorar drasticamente as respostas de modelos de IA, mesmo em modelos menores de apenas 1 bilhão de parâmetros, demonstrando que a forma como formulamos nossas perguntas determina diretamente a qualidade das respostas obtidas.
Takeaways:
- A engenharia de prompt não é apenas uma habilidade técnica, mas uma arte que transforma interações com IA, envolvendo desde abordagens básicas (Zero-Shot) até métodos avançados (Chain-of-Thought, ReAct).
- Técnicas como Role Prompting, Contextual Prompting e Explicit Instructions permitem personalizar tom, fornecer contexto adequado e eliminar ambiguidades nas solicitações.
- Métodos como Self-Critique & Refinement e Goal Decomposition ajudam a obter respostas mais refinadas ao dividir tarefas complexas e estimular avaliação crítica.
- Mesmo em modelos menores, a qualidade do prompt pode fazer toda a diferença, tornando essencial dominar estas técnicas para explorar o verdadeiro potencial da IA.
17 Técnicas de Engenharia de Prompt Que Transformam Respostas de IA, Mesmo em Modelos Menores
Você já se frustrou com respostas genéricas da IA? A engenharia de prompt é a chave para desbloquear o verdadeiro potencial dos modelos de linguagem. Neste guia prático, vamos explorar como até mesmo um modelo de apenas 1 bilhão de parâmetros pode produzir resultados impressionantes quando abordado corretamente.
O Que é Engenharia de Prompt e Por Que Ela Importa?
A engenharia de prompt é a arte de formular perguntas ou instruções para modelos de IA de maneira que maximize a qualidade das respostas obtidas. Não é exagero dizer que a forma como você pergunta determina o que recebe.
A verdade é que:
- A mesma pergunta, formulada de maneiras diferentes, pode gerar respostas drasticamente distintas
- Dominar técnicas de prompt é essencial para usar a IA de forma eficaz
- A precisão, criatividade e confiabilidade das respostas dependem diretamente da qualidade do seu prompt
Vamos explorar 17 técnicas poderosas de engenharia de prompt, testadas em um modelo LLaMA de apenas 1B de parâmetros, e ver como cada uma pode melhorar significativamente os resultados.
1. Zero-Shot Prompting: A Abordagem Direta
Zero-Shot Prompting é a forma mais básica de interação com um LLM. Você simplesmente pede ao modelo para realizar uma tarefa sem fornecer exemplos específicos, confiando em seu conhecimento pré-existente.
Antes:
What is photosynthesis?
Depois:
Explain photosynthesis to a 5-year-old child.
Essa técnica é ideal para:
- Perguntas simples e diretas
- Sumarização básica de texto
- Brainstorming rápido e geração de ideias iniciais
A especificidade no prompt pode melhorar significativamente os resultados, mesmo sem exemplos. Ao solicitar uma explicação “para uma criança de 5 anos”, você direciona o modelo a usar linguagem simples e analogias acessíveis.
2. Few-Shot Prompting: Aprendizado Por Exemplos
Few-Shot Prompting envolve fornecer ao LLM alguns exemplos da tarefa desejada, mostrando o formato de entrada e saída esperados. Isso ajuda o modelo a “aprender no contexto”.
Antes:
Classify the sentiment of this movie review: 'The movie was okay, not great but not terrible.'
Depois:
Classify these movie reviews:
Review: "This film was amazing!" Sentiment: Positive
Review: "Total waste of time." Sentiment: Negative
Review: "The movie was okay, not great but not terrible." Sentiment:
Esta técnica é particularmente eficaz para:
- Análise de sentimentos e classificação de texto
- Geração de código simples baseada em descrições
- Extração e reformatação de dados
Quanto mais exemplos você fornecer (até certo ponto), melhor o modelo compreenderá padrões complexos e produzirá resultados consistentes com suas expectativas.
3. Role Prompting: A IA Como Personagem
Role Prompting instrui o LLM a adotar uma persona específica, influenciando seu tom, vocabulário e estilo. É como escalar um ator para um papel específico.
Antes:
Tell me about black holes.
Depois:
Professor Astra, I'm curious! Can you tell me all about those mysterious black holes?
Os benefícios desta abordagem incluem:
- Interações mais envolventes e divertidas
- Explicações adaptadas para públicos específicos
- Conteúdo criativo com uma voz particular e consistente
Ao atribuir a persona de “Professor Astra”, o modelo fornece uma explicação mais vívida e entusiasmada sobre buracos negros, frequentemente utilizando analogias e linguagem mais acessível.
4. Style Prompting: Definindo o Tom da Escrita
Style Prompting foca nas características textuais da saída, guiando o LLM a escrever em um estilo específico, seja literário, artístico, formal ou informal.
Antes:
Write a short description of a sunset.
Depois:
Write a short description of a sunset in the style of a haiku.
Esta técnica é versátil para:
- Escrita criativa em estilos específicos
- Reescrever textos para diferentes públicos
- Criar conteúdo alinhado com a voz de uma marca
Diferente do Role Prompting, que define quem o LLM deve ser, o Style Prompting define como ele deve escrever, resultando em conteúdo que segue convenções estilísticas específicas.
5. Emotion Prompting: Simulando Sentimentos
Emotion Prompting instrui o LLM a gerar uma resposta que transmita uma emoção específica ou a escrever de uma perspectiva emocional particular.
Antes:
Write a thank you note for a gift I received.
Depois:
Write a thank you note for a gift I received. Make it sound very excited and deeply grateful. The gift was a book I've wanted for ages and I was thrilled to get it!
Esta técnica é valiosa para:
- Adicionar profundidade emocional a personagens e narrativas
- Criar mensagens que transmitam sentimentos específicos
- Gerar respostas empáticas para atendimento ao cliente
Ao especificar a emoção desejada, você obtém uma resposta que simula entusiasmo e gratidão genuínos, tornando a comunicação mais humana e pessoal.
6. Contextual Prompting: Fornecendo o Panorama Completo
Contextual Prompting envolve dar ao LLM informações de fundo suficientes e relevantes para sua solicitação. Sem contexto adequado, é difícil para o modelo gerar uma resposta precisa e personalizada.
Antes:
Suggest a gift.
Depois:
I need a gift suggestion. Here's some context:
- Recipient: My sister, she's 30 years old.
- Occasion: Her birthday.
- Interests: She loves reading fantasy novels, gardening, and trying new loose-leaf teas.
- Budget: Around $50.
Suggest a thoughtful gift based on this.
Esta abordagem é crucial para:
- Recomendações verdadeiramente personalizadas
- Resolução de problemas específicos
- Geração de conteúdo direcionado e relevante
Quanto mais informações contextuais relevantes você fornecer, melhor o LLM poderá adaptar sua saída às necessidades específicas da situação.
7. Chain-of-Thought (CoT): Pensando Passo a Passo
Chain-of-Thought visa melhorar as habilidades de raciocínio dos LLMs, incentivando-os a “pensar passo a passo” para resolver problemas complexos.
Antes:
Roger has 5 tennis balls. He buys 2 more cans of tennis balls. Each can has 3 tennis balls. How many tennis balls does he have now?
Depois:
Roger has 5 tennis balls. He buys 2 more cans of tennis balls. Each can has 3 tennis balls. How many tennis balls does he have now? Let's think step by step.
Ao adicionar a simples frase “Vamos pensar passo a passo”, você incentiva o modelo a:
- Decompor problemas complexos em etapas gerenciáveis
- Mostrar seu trabalho, permitindo verificar o raciocínio
- Reduzir erros em cálculos ou lógica
Esta técnica é particularmente eficaz para problemas matemáticos, lógicos ou que exijam múltiplas etapas de raciocínio.
8. System Prompting: Instruções de Alto Nível
System Prompting envolve fornecer instruções de alto nível ao LLM que se aplicam a toda a sessão, garantindo um comportamento mais consistente.
Exemplo:
You are a 'Concise Summarizer'. Your primary goal is to provide the shortest possible, grammatically correct summary that captures the main essence of any text provided. For all summaries, aim for just one clear sentence unless explicitly instructed otherwise.
Ao mover a instrução de concisão para o system prompt:
- A tarefa do usuário se torna mais simples
- A instrução se torna mais persistente ao longo da conversa
- O modelo mantém consistência em suas respostas
Esta técnica é ideal para definir o comportamento geral do modelo em toda a interação, em vez de repetir as mesmas instruções em cada prompt.
9. Explicit Instructions Prompting: Clareza Acima de Tudo
Explicit Instructions Prompting foca em ser claro, direto e inequívoco nas solicitações ao LLM, minimizando ambiguidades.
Antes:
Write about apples.
Depois:
Write a short paragraph about apples focusing on their nutritional benefits and common varieties.
The paragraph should be exactly 3 sentences long.
Mention at least two specific varieties (e.g., Granny Smith, Fuji).
Do not discuss apple cultivation or history.
Ao fornecer instruções explícitas sobre:
- O foco específico do conteúdo
- O comprimento e formato exatos desejados
- Elementos a incluir e evitar
Você obtém uma resposta mais direcionada e útil, alinhada precisamente com suas necessidades.
10. Output Priming: Iniciando a Resposta
Output Priming envolve fornecer o início da resposta desejada, guiando o modelo para uma estrutura, formato, tom ou conteúdo específicos.
Antes:
What are the ingredients for a simple vanilla cake?
Depois:
What are the ingredients for a simple vanilla cake? Please list them out.
Here are the ingredients for a simple vanilla cake:
-
Ao finalizar o prompt com o início da resposta desejada:
- Você direciona o formato específico (lista com marcadores)
- Reduz a probabilidade de texto introdutório desnecessário
- Garante consistência no estilo da resposta
Esta técnica é particularmente útil para obter listas, tabelas ou respostas em formatos específicos.
11. Rephrase and Respond (RaR): Reformular Antes de Responder
Rephrase and Respond pede ao LLM para primeiro reformular o pedido, assegurando que o modelo está na direção certa, especialmente para perguntas complexas.
Antes:
Write a story about a journey.
Depois:
I'd like a story about a journey.
First, briefly describe what kind of journey you are planning to write about (e.g., is it an adventure, an emotional journey, a short trip, a long quest? Who is the main character?).
Then, write a short story (around 100 words) based on your description.
Esta técnica:
- Força o modelo a compreender completamente a solicitação
- Permite verificar se o modelo está no caminho certo
- Resulta em respostas mais focadas e relevantes
Ao instruir o modelo a primeiro descrever sua interpretação da tarefa, você assegura que ambos estão alinhados antes da resposta final.
12. Step-Back Prompting: Entendendo os Fundamentos
Step-Back Prompting orienta o LLM a considerar conceitos mais amplos antes de responder a uma pergunta específica, estabelecendo um entendimento fundamental.
Antes:
Is a tomato a fruit or a vegetable?
Depois:
I have a question about tomatoes. But first, please explain:
1. What is the botanical definition of a fruit?
2. What is the general culinary understanding of a vegetable?
Now, using those definitions, explain whether a tomato is considered a fruit or a vegetable, and clarify why there's often confusion.
Esta abordagem:
- Estabelece definições claras antes de aplicá-las
- Aborda as raízes da confusão ou ambiguidade
- Resulta em explicações mais abrangentes e educativas
O Step-Back Prompting é particularmente valioso para questões que envolvem classificações, definições ou conceitos frequentemente mal compreendidos.
13. Self-Critique & Refinement: Avaliar e Melhorar
Self-Critique & Refinement instrui o LLM a gerar uma resposta, avaliá-la criticamente e revisá-la com base em sua própria análise.
Antes:
Write a short, catchy slogan for a new eco-friendly water bottle.
Depois:
I need a short, catchy slogan for a new eco-friendly water bottle. Please follow these steps:
1. First, generate one initial slogan.
2. Then, critically evaluate your own slogan:
* Is it catchy and memorable?
* Does it clearly communicate "eco-friendly"?
* Does it relate well to a "water bottle"?
* What are its weaknesses or areas for improvement?
3. Finally, based on your critique, provide an improved slogan.
Este processo:
- Força o LLM a analisar sua própria saída
- Identifica fraquezas e áreas para melhoria
- Leva a uma geração mais deliberativa e refinada
A técnica é especialmente útil para conteúdo criativo, onde a primeira ideia raramente é a melhor.
14. Goal Decomposition Prompting: Dividir para Conquistar
Goal Decomposition Prompting divide uma tarefa complexa em sub-metas menores, guiando o processo de geração ao listar explicitamente as etapas desejadas.
Antes:
Plan a simple weekend trip to a nearby nature spot.
Depois:
I want to plan a simple weekend trip to a nearby nature spot. Please help me by creating a plan that includes the following:
1. Suggest one specific type of nature spot (e.g., a forest with hiking trails, a lakeside area, a scenic mountain viewpoint).
2. List 3-4 essential items to pack specifically for that type of nature spot.
3. Suggest one main activity for Saturday and a different one for Sunday.
4. Provide one important safety tip relevant to visiting that nature spot.
Esta técnica:
- Torna tarefas complexas mais gerenciáveis
- Garante que todos os aspectos importantes sejam abordados
- Resulta em respostas mais estruturadas e abrangentes
A decomposição explícita da meta é particularmente valiosa para planejamento, resolução de problemas e tarefas com múltiplos componentes.
15. Meta-Prompting: Prompts que Criam Prompts
Meta-Prompting utiliza o LLM para ajudar a criar prompts melhores para outro (ou o mesmo) LLM, otimizando-os para qualidade, especificidade ou criatividade.
Exemplo:
I want to use an LLM to generate 3 distinct and creative fantasy story ideas.
For each story idea, I need the LLM to provide:
a) A unique main character concept.
b) A compelling central conflict.
c) A unique magical element or system integral to the story.
Please write out the actual, detailed prompt I should use to give to an LLM to get these structured fantasy story ideas.
Esta abordagem:
- Aproveita o conhecimento do LLM sobre si mesmo
- Cria prompts mais detalhados e estruturados
- Economiza tempo na criação de instruções complexas
O meta-prompting é especialmente útil quando você está tentando obter um formato específico ou resultado estruturado de um LLM.
16. ReAct (Reason + Act): Raciocínio e Ação Combinados
ReAct permite que LLMs resolvam tarefas complexas intercalando raciocínio com ações simuladas para coletar informações.
Antes:
Who was the U.S. president when the first person walked on the moon, and what was the name of that astronaut?
Depois:
Answer the following question: "Who was the U.S. president when the first person walked on the moon, and what was the name of that astronaut?"
To answer this, please follow a ReAct-like process. For each step, state:
Thought: [Your reasoning or plan for the next step]
Action: [The specific information you need to find or the sub-question you need to answer, as if you were querying a tool or database]
Observation: [The hypothetical result or answer to your Action]
Continue this process until you have all the information to answer the main question. Then, provide the final answer.
O ReAct-style prompting:
- Força o LLM a dividir a questão principal em subquestões
- Torna a “pesquisa de conhecimento” interna mais explícita
- Melhora a precisão em tarefas que exigem múltiplos fatos
Esta técnica é particularmente poderosa para perguntas complexas que exigem a integração de múltiplos dados ou fatos.
17. Thread-of-Thought (ThoT): Mantendo a Coerência
Thread-of-Thought incentiva o LLM a manter uma linha de raciocínio coerente em várias interações ou textos gerados.
Exemplo:
I need a clear explanation of how a bill becomes a law in the US.
Please structure your explanation as follows:
1. **Introduction:** Briefly state the overall purpose of the legislative process.
2. **Bill Introduction:** Explain who can introduce a bill and where.
3. **Committee Stage:** Describe what happens in committees and why this stage is important. Ensure you explain how this connects to the previous step.
4. **Floor Action (House/Senate):** Detail the debate and voting process in one chamber. Explain how a bill gets from committee to the floor.
5. **Action in the Other Chamber:** Explain that the process is repeated and what happens if versions differ. Clearly link this to the previous chamber's action.
6. **Conference Committee (if needed):** Explain its role in reconciling differences.
7. **Presidential Action:** Describe the President's options (sign, veto, pocket veto) and the consequences.
8. **Overriding a Veto (if applicable):** Explain this final potential step.
Throughout your explanation, ensure each stage logically follows the previous one, maintaining a clear "thread" of the bill's journey. Use clear transition phrases.
Ao solicitar uma estrutura clara e transições explícitas:
- A explicação resultante se torna mais coerente
- O fluxo lógico entre conceitos é fortalecido
- O conteúdo se torna mais fácil de seguir e compreender
Esta técnica é especialmente valiosa para explicações complexas, processos sequenciais ou conteúdo educacional.
Conclusão: O Poder da Engenharia de Prompt
As 17 técnicas apresentadas neste artigo demonstram claramente que a engenharia de prompt não é apenas uma habilidade técnica, mas uma arte que pode transformar drasticamente a qualidade das interações com IA.
O mais surpreendente é que estas técnicas funcionam mesmo em modelos menores, como o LLaMA de 1B de parâmetros testado neste estudo. Isso significa que, independentemente do modelo que você esteja usando, a forma como você formula suas solicitações pode fazer toda a diferença.
Cada técnica oferece uma abordagem única para guiar o modelo de linguagem:
- Algumas focam na estrutura da resposta (Output Priming, Explicit Instructions)
- Outras melhoram o raciocínio (Chain-of-Thought, ReAct)
- Algumas personalizam o tom e estilo (Role Prompting, Emotion Prompting)
- E outras otimizam o processo de geração (Self-Critique, Goal Decomposition)
À medida que os modelos de linguagem continuam a evoluir, a engenharia de prompt também evoluirá. Conceitos emergentes como Tree-of-Thought, Self-Consistency e Multi-Persona Dialogue Prompting prometem expandir ainda mais nossas capacidades de comunicação com IA.
A mensagem final é clara: não culpe o modelo por respostas medíocres antes de aprimorar seu prompt. Domine estas técnicas, experimente combinações diferentes, e descubra o verdadeiro potencial da IA conversacional.
Que técnica você experimentará primeiro?
Fonte: Fareed Khan. “Testing 17 Prompt Engineering Techniques on 1B Parameter LLM ThoT, CoT, RaR and more!”. Disponível em: arxiv.org, aman.ai, arxiv.org.