Bom, pessoal, a gente falou ali sobre one shot, zero shot, few shot, que são as formas mais simples de você trabalhar no dia a dia e é o ponto mais comum ali quando a gente está usando inteligência artificial, independência para desenvolvimento. O grande ponto é que quando a gente está trabalhando com desenvolvimento, O grande ponto é que quando a gente está trabalhando com desenvolvimento, muitas vezes a gente só fica aquele zero shot, one shot, few shot. E a gente limita a nossa inteligência artificial a realizar tarefas complexas para a gente, porque eu acredito que, grande, a esmagadora maioria das pessoas no mundo, essa é a minha tese, e a maioria dos desenvolvedores que pelo menos eu conheço, eles só arranham a ponta do iceberg, porque eles estão ali focados naquele zero shot, one shot, few shot. Eu não sei você, nos dias de hoje, como que você trabalha, mas saiba que há um mundo muito maior que aqueles três formatos que são os mais utilizados na minha opinião. E um dos formatos que são extremamente importantes e que ele começa a mudar o jogo aí na hora que a gente principalmente está desenvolvendo com o IA é o que a gente chama de Chain of Thought. O Chain of Thought, o encadeamento de pensamento, ele é uma técnica de engenharia de prompt que ele instrui o modelo a externalizar o seu raciocínio passo a passo. Então, guarde bem essa palavra, passo a passo. Ele vai permitir que ele resolva as nossas tarefas que exigem lógica, que possuem múltiplas etapas ou operações intermediárias. Ao invés de dar apenas a resposta final, o modelo mostra o seu processo de pensamento. O interessante é que quando o modelo mostra o processo de pensamento dele, a próxima resposta que ele dá, ele usa a própria resposta que ele deu anterior como um contexto pra que a próxima seja melhor. No mesmo prompt. No mesmo, na mesma resposta, certo? Ou seja, ele começa a externalizar o pensamento e conforme ele vai pensando, melhor ele vai ficando. É mais ou menos quando a gente quer fazer uma conta de cabeça e essa conta tem múltiplas etapas. Então, eu falo assim, 1 mais 1 é 2. Agora, se eu pegar esse 2 mais 7 dá 9. Sabe quando a gente começa a fazer e a gente mesmo monta o raciocínio na nossa cabeça? É o que a gente consegue fazer com a Yaku Chain of Thought, tá? Então, é uma técnica formalizada, chamada de Chain of Thought Prompting Elicitics Reasoning in Large Language Models, tá? Isso apareceu em 2022, né? E basicamente, os modelos começaram a ter melhores desempenhos quando essa técnica começou a ser desenvolvida pelo fato de induzir a IA a pensar. Basicamente isso. Eu acho que você já deve ter ouvido falar ou já deve ter testado algum modelo com algo que é chamado de Advanced Reasoning, ou seja, Reasoning é basicamente razão, ou seja, quando a gente fala em Advanced Reasoning, normalmente a gente já ouviu falar em modelos, por exemplo, como os modelos O3, se não me engano, da OpenAI, a gente tem o Gemini com Reasoning, eu acho que o Gemini foi um dos primeiros caras aí a trabalhar com isso. E o que que significa? Eu não sei se você já utilizou, acredito que sim, mas na hora que você escreve algo, tá, ele começa a pensar passo a passo ali na resposta pra você. Vou pegar um exemplo bem simples aqui pra gente trabalhar, vou pegar um modelo aqui do GPT, onde a gente tem aqui, ó, Reasoning, ele está trabalhando aqui como reflexão, né, o meu está trabalhando aqui o World Tree, por exemplo, né, e eu vou pensar assim, olha, responda como eu posso fazer cálculos específicos de algoritmos de sorting. Quando eu coloco isso aqui, ela está dando um pensando aqui para mim. E esse pensando significa que ela, internamente, ela está gerando um encadeamento de pensamento para ficar melhor o nível de resposta. Ou seja, os próprios modelos de inteligência artificial, eles começaram, no final das contas, a embutir o próprio chain of thought no próprio modelo. E qual que é o nosso maior problema? Eu vou trazer isso aqui pra vocês, mas aqui, ele trouxe um resultado aqui, define o que importa, ele trouxe, perceba que ele sempre tá trabalhando aqui passo a passo, mas o mais interessante é que quando você clica aqui você vê ele pensando de como que ele vai responder, o usuário me pediu pra explicar, daí ele fala, ok eu acho que ele está se referindo a calcular a complexidade o número de comparações, troca custo, como análise big ou pode ser que ele queira isso, Então você consegue perceber que ela está gerando uma linha de raciocínio para ela mesma. Qual que é o problema disso aqui? E de nós desenvolvedores? O problema é que quem já ouviu falar em chain of thought e quando ficou sabendo que existe essa forma de advanced reasoning essas pessoas pararam de utilizar o chain of thoughts de forma expressiva nos seus próprios prompts partindo do princípio que a IA ela já faz isso no próprio modelo e sim, ela já faz isso no próprio modelo. E sim, ela já faz isso no próprio modelo. Mas, se você utilizar essa técnica no seu próprio prompt, mesmo trabalhando com um modelo que faz isso, o seu nível de resposta também é diferente. Então, quando a gente está falando de Advanced Reasoning, ele basicamente foi criado em cima da ideia dessa técnica do Chain of Thoughts, tá? Então, quando que eu utilizo? Quando eu quero, por exemplo, tô dando exemplos aqui mais técnicos, quando eu quero fazer um diagnóstico de falhas de bug, quando eu quero fazer um planejamento mais lógico de processos, quando eu quero criar, por exemplo, argumentações comparativas entre diferentes abordagens então isso aí são pontos assim muito importantes, porque se tem uma coisa que a gente faz no desenvolvimento de software é tentar entender problemas é corrigir problemas é fazer com que esses problemas sejam resolvidos passo a passo, baseado em processos. E também, uma das coisas que a gente faz muito é ficar, inclusive, comparando abordagens. E quando você consegue gerar uma estrutura de pensamento, a IA consegue trazer isso de uma forma extremamente mais precisa. Também tem aqui paper do nosso querido Chain of Thoughts. E eu gosto bastante desses papers aqui, porque ele mostra, por exemplo, comparações. Um input foi o Roger tem cinco bolas de tênis, ele compra duas bolas de tênis, cada uma tem três, cada uma tem três, cada potinho tem três, quantas bolas ele tem? E daí a resposta foi 11. Agora, olha só que interessante, quando você fala isso, usando esse chain of thoughts, o que vai acontecer? Vai acontecer que ele vai começar a pensar de forma diferente, perceba que aqui eu falei pra ele né o paper falou olha, o Roger ele começou com 5 bolas, 2 camps de 3 bolas cada uma então eu tenho 6, então o total é onze, a resposta é onze. Então, quando eu coloco essa linha de pensamento, você faz com que a IA ela vai andando. Aí ele deu exemplo no caso da cafeteria, como é que fica? E aqui sem essa ideia da cadeia de pensamento. Então, se você perceber, ele está usando esses contextos para as próximas respostas, para as próximas interações. Então, vale a pena ler esse tipo de cara, porque ele mostra aqui para vocês as comparações. Essas comparações nos prompts são muito legais para você materializar mais aquilo que você tá aprendendo. Obviamente que a nossa ideia do nosso curso aqui, inclusive, é eu conseguir te ajudar a tangibilizar esses tipos de informação. Mas é importante você saber as fontes disso. Próximo vídeo a gente vai falar um pouco mais sobre Chain of Thoughts porque ele é a base para outros camaradas que vêm aí na frente.