Bom, pessoal, a gente falou um pouco sobre Chain of Thoughts, mas o lance é o seguinte, galera. Isso que a gente está fazendo funciona muito bem. Agora, existem formas que você consegue potencializar a utilização do Chain of Thoughts, deixando ainda mais claro a estrutura de como a IA tem que trabalhar. Isso vai te ajudar a criar seus prompts. E tem algo bem interessante, que é o seguinte, tá? A Anthropic, que é uma das empresas que faz o cloud, por exemplo, ela tem diversos modelos fantásticos. E ela é uma das empresas que focam muito em ensinar o usuário a trabalhar com o IA. Eles têm bibliotecas de prompts para você olhar como é que eles trabalham. E eles trabalham com algumas recomendações, inclusive com tags, XML, etc. E eu quero mostrar isso aqui para vocês porque vai fazer muito sentido para nós que somos desenvolvedores pensarmos em desenvolvermos prompts utilizando esses padrões. Ainda mais porque muitos desenvolvedores pensarmos em desenvolvermos Prompts utilizando esses padrões. Ainda mais porque muitos desenvolvedores usam o Cloud, inclusive, como modelo de IA pra trabalhar. Então é o seguinte, estratégias inspiradas na Anthropic, tá? Persona e objetivo, mas estrutura clara. Ou seja, ela contextualiza a função do modelo e define o tom da resposta. Chamada a reflexão lógica. Pense passo a passo. Justifique cada etapa. Formato de saída padronizado. Etapas numeradas, mas conclusão objetiva. Autoavaliação embutida. Verifique se todos os passos estão consistentes. E depois, critério de parada lógica. Encerrar ou atingir o raciocínio final. Então, quando você começa a perceber, não é simplesmente faça o passo a passo, tá? Se você segue essa estrutura na hora de você for criar os prompts, você já vai conseguir melhorar a saída, você vai conseguir fazer com que ela reflita sobre o que ela mesma fez, ela vai mostrar e justificar o que ela fez, ela vai parar na hora certa, ela vai ter a contextualização. Então, essas inspirações, esses frameworks que essa galera que monta essas inteligências artificiais, eles treinam muito, eles têm benchmarks de prompts. Então, essa é uma estratégia bacana. Agora, tem algumas técnicas, entre aspas, avançadas de Chain of Thoughts com delimitações estruturais, que a gente chama de Anthropic Styles, porque é uma das formas como eles trabalham muito na hora de trabalhar. Então, por exemplo, modelos como Cloud e GPT, eles repitam melhor quando o prompt apresenta delimitações estruturais explícitas. Ou seja, uma técnica bastante utilizada pela Anthropic é seguir, seguindo a própria Anthropic Cloud Library, são trabalhar com delimitadores XML. Por exemplo, como TOUGH, REASONING, ANSWER, para separar os raciocínios da resposta final e melhora a legibilidade e torna o prompt mais auditável. Então, por exemplo, eu vou trabalhar com contexto, então eu coloco uma tag Context para delimitar o que é contexto. Thought ou Reasoning, onde vai conter cada raciocínio lógico. Step pode ser usado para dividir a etapa interna desses pensamentos. Answer, a resposta sem explicação. Final decision, quando tem muitas alternativas sendo avaliadas, ou seja, ele tem que pegar muitas alternativas e tomar uma decisão final. Então, trabalhar com XML, com tags, nesse nosso caso, o que vai fazer no final das contas? Vai fazer com que a IA, ela se planeje melhor pra responder, mas que você, inclusive, visualmente consiga entender essa saída. E essa saída, muitas vezes, se a gente estiver olhando a interface do GPT, não vai fazer nem tanto sentido ou tanta diferença. Mas, quando você está trabalhando com código ou utilizando prompts que você vai consumir para que a sua aplicação faça uma chamada de API, o resultado disso fica muito melhor. Até mesmo para você gerar os prompts dinamicamente e tudo mais, tá? Então, a motivação para usar isso aí, né? Esses marcadores, essas tags estruturais, são reduzir a ambiguidade entre raciocínio e resposta. Às vezes, a própria IA, na hora que ela está trazendo o pensamento, esse pensamento pode ter já a resposta misturada, e isso pode atrapalhar e desencadear. E até mesmo para a gente entender o que é pensamento e o que é resposta. Então, eu posso separar o que é pensamento e o que é resposta. Ela consegue também fazer com que as análises, pegar o output fique mais fácil para a gente ver, mas não só para a gente. Eu acredito que os sistemas que a gente pega como resposta, que a gente consome como IA, e fazer os nossos sistemas fazerem parsing dessas informações ou outra IA, né? A gente tem agentes chamando agentes muitas vezes, fica muito melhor, tá? E ajuda o modelo a se manter dentro de um fluxo lógico sem ficar pulando ali as etapas. Então, super recomendo pra caramba você trabalhar aí com tags XML pra você conseguir melhorar ali as suas respostas, ter muito mais controle das coisas, fechou? Então, isso aí é um ponto interessante. E vamos aí mais um exemplo de como que você pode trabalhar com o XML, por exemplo, com esse padrão da Antropic. Por exemplo, eu tenho um prompt, você é engenheiro de software especialista em arquitetura de sistemas web, sua tarefa é pensar passo a passo sobre os requisitos técnicos para construir um back-end de uma aplicação de uma to-do list colaborativa com autenticação de usuários, categorias personalizáveis e suporte de tarefas compartilhadas entre times. Escreva seu raciocínio entre thought entre Thought e o resumo técnico final entre Answer e também Step para dividir o pensamento por áreas de responsabilidades. Aí você começa a perceber que ela tende a responder dessa forma. Thought, pensamento. Aí o Step, o passo. Aí ela já trouxe até o Title, autenticação e gerenciamento de usuários. Aplicação, isso. Step 2 aqui, o próximo passo. Depois o próximo passo, o próximo passo. Aí acabou o pensamento dela. Agora, baseado nisso, ela gera uma resposta final. Então, isso aí é interessante, porque nos ajuda a entender melhor e a gente ter essa separação do que foi o pensamento, as justificativas dela, e da resposta que ela vai trabalhar ali com a gente. Beleza? Aqui, pessoal, está comparativo. Eu gosto muito de gerar essas tabelas comparativas e a gente vai ver algumas tabelas mais interessantes, inclusive, mais para frente. Então, seguinte, tipo de prompt, zero shot. Tem exemplo? Não. Gera raciocínio, né? Na média, porque eu consigo fazer um zero shot gerar raciocínio pra mim, tá? Eu consigo fazer. Eu não tô dando um exemplo, mas eu consigo gerar raciocínio, tá? Agora, é ideal para, tá? Então, aí que é o seguinte, o zero shot, ele é algo bem genérico. Então, você pode utilizar ele pra vários ideais, mas sem aqueles pontos específicos. Agora, o one shot, few shot, ele requer exemplos, ele gera raciocínio, é opcional, tá? E é ideal pra quê? Imitar formato, estilo, ou padrão. E aqui a gente tem chain of thought. Requer exemplo? É indiferente. Eu posso trabalhar com chain of thought, mas com exemplo ou sem exemplo. Ele gera raciocínio? Sim. Ele é ideal para lógica, planejamento, análise, debugging. Qualquer coisa que você precise de raciocínio, de encadeamento de pensamento, o Chain of Thought ajuda, tá? O zero-shot, ele é genérico, tá? Então, ele não tem exemplo, e a linha de raciocínio dele vai depender de muito de como ele mesmo pode se autogerar, e também dependendo do modelo que você for utilizar, mas você não é obrigado a trabalhar ali com a geração de raciocínio. Então, quando você trabalha com one shot e few shot, o raciocínio se torna mais opcional porque ele já tem uma base de exemplos, então eu não sei se você está entendendo o meu ponto aqui a geração de raciocínio do zero shot depende dele mesmo porque ele não tem exemplos a geração de raciocínio do few shot, one shot ela é totalmente opcional porque ela tem exemplo para conseguir trabalhar com a resposta, tá? Já no chain of thought, não. Se é chain of thought, você obrigatoriamente tente gerar o raciocínio. Beleza? Então, essa é a ideia, o comparativo e alguns exemplos aí, inclusive as chamadas, no caso aí da Antropic, as tags e tudo mais, levem isso em consideração fechou galera? então é isso aí e vamos pro próximo tópico