Bluesky, Mastodon, Telegram e RSS

como crio meus prompts blog.alberth.art

publiquei um texto em que mostro (em detalhes) o meu processo de criação de prompts. Utilizo basicamente três ferramentas, sendo uma um agente que eu mesmo criei no Gemini, outra uma ferramenta da Anthropic (gratuita), e, por último, um GPT criado pelo brasileiro Marcos de Castro.

Se você tem dificuldade em criar prompts, ou acha que seus prompts são simples demais e entregam resultados genéricos, recomendo dar uma lida

4 comentários

4 comentários

  1. não vi utilidade prática. me parece que o processo de criação do prompt acaba tomando muito tempo pra fazer algo simples: detalhar o que o usuário quer.

    mas já me inscrevi no seu rss pra acompanhar o blog e os exemplos práticos.

  2. Sou semi leigo em IA/LLMs. Alguém pode explicar a utilidade disso e dar exemplos práticos de uso?
    Outra dúvida é: qual a diferença entre escrever um comando para uma LLM gerar como saída um segundo comando (que por sua vez é o que será usado pela LLM para finalmente gerar a resposta desejada) e escrever o comando diretamente desde a primeira interação?

    1. Oi, Eduardo!

      No terceiro parágrafo do link eu explico a utilidade disso. Já que por trás da LLM há um algoritmo matemático/estatístico, a saída que o chat vai te entregar é totalmente relacionado à entrada, portanto, quanto melhor estiver o seu comando, melhor será a resposta fornecida. E o melhor vai variar em cada LLM, pois, o treinamento de cada uma é diferente, os algoritmos reagem de formas distintas também. No post do link tem uma lista de documentações de Google, Anthropic e OpenAI que falam mais sobre isso, se quiser se aprofundar.

      Com relação aos exemplos práticos, são muitos, qualquer coisa que você queira fazer que pode ser feita ou parcialmente feita por uma LLM, um bom prompt sempre vai ser melhor que um comando simples. No meu blog eu vou passar a colocar vários exemplos que eu uso no meu dia a dia, detalhando todo o processo.

      Já a diferença entre um comando simples e um prompt gerado com o método que eu uso, muito melhor do que eu te falar, é você testar na prática.
      – Abra duas abas, uma com o ChatGPT e outra com o Console da Anthropic
      – Na aba do chat, faça um comando simples, sem pensar muito, só peça algo
      – Na aba do Console, selecione o Gerador de Prompts, e diga o que você quer fazer. Nesse caso você não deve pedir pra fazer, e sim dizer o que você quer fazer, ainda de maneira simples
      – Copie o prompt gerado pelo Console e cole em um novo chat lá no ChatGPT

      Depois é só comparar os resultados. Para mim, o método

      1. Para mim, o método que utilizo, criando prompts mais detalhados e revisados, gera saídas melhores, mais completas e com mais precisão que os comandos simples. Nestes, o resultado sai muito genérico, muito com “cara de ChatGPT”.