O ChatGPT deu-me uma sugestão de prompt super útil para correção de bugs:
“Não te apresses a aplicar o patch. Abstrai este problema como uma possível falha do sistema. Por favor, fornece três níveis de soluções: A - Contenção (menor alteração, suficiente para durar 1-2 semanas); B - Reparação estrutural (introdução de um mecanismo intermediário, como um contrato unificado/descoberta de serviços/camada de roteamento/camada de eventos); C - Evolução arquitetural (forma alvo para os próximos 3 meses). Para cada solução, escreve claramente: âmbito das alterações, modos de falha, observabilidade, passos de migração, estratégia de rollback. No final, recomenda uma solução e define as condições de transição (quando passar de A para B).”
Por fim, o AI provavelmente vai recomendar B, mas tu só precisas seguir com C sem pensar duas vezes.
A razão é que o AI se considera uma pessoa real no ambiente de produção, assumindo que o produto está sendo bastante utilizado e que reestruturar uma funcionalidade leva meses, por isso tende a preferir corrigir vulnerabilidades pontuais ao invés de avançar de forma radical na arquitetura.
Mas a verdade é que, para o AI, reestruturar um grande projeto leva apenas algumas horas, e o produto provavelmente não está sendo usado por ninguém. Além disso, cada correção pontual que faz não resolve o problema de verdade, só cria bugs futuros, então é preciso fazer uma mudança definitiva!
Quando o AI é forçado a fornecer A/B/C e definir condições de transição, ele deixa de ser apenas um consertador de emergência.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
O ChatGPT deu-me uma sugestão de prompt super útil para correção de bugs:
“Não te apresses a aplicar o patch. Abstrai este problema como uma possível falha do sistema. Por favor, fornece três níveis de soluções:
A - Contenção (menor alteração, suficiente para durar 1-2 semanas);
B - Reparação estrutural (introdução de um mecanismo intermediário, como um contrato unificado/descoberta de serviços/camada de roteamento/camada de eventos);
C - Evolução arquitetural (forma alvo para os próximos 3 meses).
Para cada solução, escreve claramente: âmbito das alterações, modos de falha, observabilidade, passos de migração, estratégia de rollback. No final, recomenda uma solução e define as condições de transição (quando passar de A para B).”
Por fim, o AI provavelmente vai recomendar B, mas tu só precisas seguir com C sem pensar duas vezes.
A razão é que o AI se considera uma pessoa real no ambiente de produção, assumindo que o produto está sendo bastante utilizado e que reestruturar uma funcionalidade leva meses, por isso tende a preferir corrigir vulnerabilidades pontuais ao invés de avançar de forma radical na arquitetura.
Mas a verdade é que, para o AI, reestruturar um grande projeto leva apenas algumas horas, e o produto provavelmente não está sendo usado por ninguém. Além disso, cada correção pontual que faz não resolve o problema de verdade, só cria bugs futuros, então é preciso fazer uma mudança definitiva!
Quando o AI é forçado a fornecer A/B/C e definir condições de transição, ele deixa de ser apenas um consertador de emergência.