Vibe Coding em Produção
1. Crenças Fundamentais
-
LLMs = velocidade absurda de digitação (tokens/s ≫ humano)
Trato os LLMs como um programador parceiro infinito que nunca se cansa e digita extremamente rápido. Com o prompt correto, é possível gerar rapidamente grandes quantidades de código.
-
LLMs conseguem escrever código em nível de produção
A maior parte do que é gerado é genuinamente bom se você disser exatamente o que deseja.
-
Qualidade do código = qualidade das instruções
Se o resultado for ruim, 90% das vezes o problema está no prompt/contexto—não porque LLMs não consigam escrever bem.
-
LLMs sem restrições se desviam → imponha padrões rigorosos
Se você não especificar explicitamente padrões, obterá resultados inconsistentes ou arbitrários. LLMs escolherão algo que provavelmente não será o que você tem em mente. Seja explícito.
-
Contexto é rei
LLMs conhecem apenas o que está disponível publicamente ou o que você fornece explicitamente, mas pode aprender bem qualquer coisa que estiver no contexto.
2. Preparação: Elaborando o Prompt
-
Pense no que deseja: casos extremos, interfaces e comportamento
Antes de interagir com o LLM, dedique bastante tempo para definir exatamente o que a funcionalidade deve fazer, todos os estados/fluxos e edge cases.
-
Escreva instruções brutalmente explícitas e restritivas
“Faça X realizar Y, usando o método Z, evite Q.”
-
Codifique peculiaridades específicas do modelo que você aprendeu
Modelos diferentes têm peculiaridades específicas. Com o tempo, você antecipará essas peculiaridades. Por exemplo, Claude 4 Sonnet tende a over engineer caso não tenha instruções explícitas se detectar que o código será usado em produção.
-
Explore grandes contextos
LLMs modernos lidam bem com contextos grandes (ex.: Claude-4 tem um system prompt de 60k caracteres). Forneça detalhes abrangentes: referências de APIs, exemplos de código, edge cases, etc.
-
Use ChatGPT (fora do Cursor) para transcrever requisitos/designs em prompts
Para tarefas mais complexas de design ou orientadas ao produto, o ChatGPT 4o ou o3 traduzem requisitos, fluxos de usuário ou capturas de tela de designs em prompts muito bem. O o3 é excelente em escrever prompts frontend pixel-perfect a partir de capturas de tela. Dica pra transcrever imagem de design em prompt pixel perfect: Peça o o3 para escrever as instruçoes em um objeto JSON arbitrário.
-
(Útil) Dite ideias via reconhecimento de voz do ChatGPT
Usar reconhecimento de voz ajuda a capturar rapidamente ideias espontâneas. O ChatGPT transcreve pensamentos falados diretamente em texto estruturado, facilitando a edição e o refinamento posteriores.
3. Fase de Planejamento (GPT-4.1) Usando Cursor
-
Peça: “Analise estes arquivos, planeje a implementação, não escreva código.”
GPT-4.1 é excelente em ler grandes contextos e criar planos detalhados de implementação em alto nível, mas não é muito bom com function calling no Cursor.
-
Revise o plano → identifique falhas no seu próprio pensamento
A revisão do plano gerado pela IA pode revelar complexidades ou falhas ignoradas no seu projeto inicial.
-
Itere até o plano se tornar óbvio e simples
Simplifique implacavelmente. A complexidade normalmente é um mal sinal.
4. Fase de Implementação (Claude-4 Sonnet) Usando Cursor
-
Prompt: “Implemente o plano.”
Com o plano, o Claude-4 Sonnet gera rapidamente implementações completas, incluindo testes.
-
Saia → tome um café
Normalmente, o resultado é extenso e completo, reduzindo o esforço manual necessário para a programação inicial.
-
Retorne com centenas/milhares de linhas de código + testes passando
Frequentemente, descobre edge cases ou detalhes de implementação não considerados inicialmente.
-
Geralmente 90% pronto; ajustes menores apenas
Os ajustes normalmente envolvem pequenos ajustes de lógica ou refinamento de testes.
5. Configurações do Cursor
-
Apenas modo agente – controle total sobre edição versus adição
Diga explicitamente quando a IA deve editar ou adicionar código. Outros modos me parecem descenessários.
-
Nunca use roteamento automático de modelos (Auto mode) → selecione explicitamente o modelo
Modelos diferentes possuem pontos fortes e fracos únicos. O roteamento automático geralmente resulta em resultados menos previsíveis e de menor qualidade.
6. Impacto na Produtividade
- Velocidade de codificação aumenta
- Mais tempo para arquitetura e revisão
- Menos digitação mecânica, mais reflexão
7. Conclusões
-
Trate a elaboração de prompts como design, não administração
Prompts são o produto fundamental, invista bastante tempo e reflexão em sua criação.
-
Separe claramente Pensar → Planejar → Implementar
Cada etapa é um ponto crítico que vai permitir resolver diferentes problemas.
-
Escolha explicitamente seu modelo
Conheça e aproveite os pontos fortes e peculiaridades das suas ferramentas.
-
Programar com IA muda a produção de software
Essa abordagem naturalmente revela requisitos fracos, simplifica APIs e melhora a usabilidade e a qualidade geral do código.