Bem-vindos e bem-vindas a mais uma aula do CR_IA.
Hoje, vamos falar sobre o lançamento da OpenAI, o novo ChatGPT O1. Aqui parece 01, mas é O1. Lançamento maravilhoso, né, que rolou semana passada. E que tá todo mundo falando que, meu Deus, incrível, né. Também conhecido como Strawberry. E tá todo mundo, né. Na verdade, os conteúdos de AI na internet é aquela coisa, né? Toda ferramenta que lança é tipo, "nossa, isso é uma hipérbole", né? Essa ferramenta vai mudar completamente e aí o problema dessa hipérbole é que se tudo é sempre tão extraordinário, então nada é extraordinário, né? Então hoje a gente tá aqui pra mostrar, de fato, o que que é realmente extraordinário sobre essa ferramenta e o que que é meio hype e buzz, tá bom?
Bom, vamos lá. O Strawberry O1 tem sido anunciado faz tempo, tinha uma expectativa com relação a esse novo modelo do ChatGPT da OpenAI e esse novo modelo foi lançado dia 12, dia 13, sexta-feira de setembro. Ele só está disponível, por enquanto, para os usuários que pagam o GPT, tá? Então, para os usuários do GPT Plus. E o que que ele tem de diferencial, tá? Ele é melhor de raciocínio lógico e ele demonstra o raciocínio lógico que ele percorre para te dar uma resposta.
Vou fazer uma pergunta para ele, para eu te mostrar como é que ele funciona. Ó. Eu vou pegar o chat, tem o chat de O1-mini e o preview. O Mini, ele também reflete com mais habilidade, mas ele não demonstra ali a reflexão. Ele não te mostra quanto tempo ele demorou pra pensar, porque ele demora mais pra pensar, e não te mostra o raciocínio. Então, eu vou fazer o ChatGPT O1 preview.
"Planeje uma viagem de 4 dias para Santiago, hoje. Eu gosto de visitar pontos turísticos, históricos, locais característicos e atípicos. Pois gosto de conhecer e emergir na cultura e no local. Também. Eu gosto de comer em bons restaurantes."
Vou fazer prompt de planejamento de viagem, que tem uma lacuna, uma brecha nesse tipo de prompt, que é como a base de dados desse GPT não é uma base de dados tão ampla quanto a base de dados do GPT-4, e aqui eu estou pedindo restaurantes, isso pode ser que a resposta não seja tão excelente assim, porque ele precisaria ter banco de dados de restaurantes. Mas, eu quero demonstrar pra vocês só o racional, né, como é que ele opera, e eu vou dar outras especificações aqui.
Aqui, pensou por 13 segundos, ele me deu aqui, pra reservar voo matinal, duração do voo, ele me trouxe de fato, achei interessante, falou que bairro eu devo me hospedar, também deu opções de hotel. Ele falou pra eu fazer o primeiro dia histórico, o segundo dia cultura e história, o terceiro vinícolas natureza, depois arte e compras. E aqui tem outras dicas adicionais.
Acho que, assim, eu achei que é plano, tem umas sacadas nele que são pouco melhores do que muitas vezes o 4.0 faria, mas o que eu quero mostrar pra vocês é o raciocínio. Ó, é esse o raciocínio que ele percorreu. É super lúdico, né, raciocínio.
Isso aqui eu quis dar exemplo pra vocês de como de fato ele funciona, tá? É uma pergunta besta, mas mostra como que essa ferramenta ajudaria a quebrar em várias tarefas, minitarefas, algumas atividades mais complexas que a gente pode vir a pedir pra uma ferramenta dessa, tá?
Na verdade, ele pensa mais rápido do que isso, né? Ele fala aqui, pensou por 3 segundos. Na verdade, ele levaria até menos tempo pra pensar numa tarefa dessa, só que como ele tá resumindo o pensamento dele aqui por trás, então ele demora 13 segundos, mas na verdade é pouco menos, tá? Não dá pra, por enquanto, pausar do tipo quando ele chegar aí organizando a viagem, vou planejar uma viagem em 4 dias pra Santiago e aí pausar e dar mais contexto no meio do raciocínio por enquanto, tá? Mas isso tá sendo explorado pra modelos no futuro, de você poder intervir no meio do raciocínio, que é super interessante para determinadas tarefas mais complexas, para você ir vendo como ele está pensando e ir mudando ali no meio o raciocínio dele para a tua resposta ficar melhor.
Então isso é uma possibilidade futura. E também estão sendo planejadas outras funções futuras, tipo navegação na internet, acesso ao browser. Outra coisa que é esse modelo, ele tem banco de dados menor, como eu falei, então tanto também tá sendo planejado expandir esse banco de dados nas próximas versões, tá? Isso é importante.
Como esse modelo é treinado? Ele, além do treinamento de Deep Learning, né, que é o treinamento que a gente conta para vocês aí na magna, que é tipo, ah, eu mostro monte de referência para esse modelo, né, de texto, e ele aprende em cima, né, de referências. Ele também tem treinamento de máquina cujo nome é aprendizado por reforço. E aprendizado por reforço é, assim, é bem nome auto-explicativo. É modelo que os cientistas, para treiná-lo, recompensam ele quando ele dá uma resposta em racional positivo e punem ele com racional negativo.
Então, como assim recompensa ou pune? Que tipo de punição ou recompensa uma máquina ou computador pode ganhar? A gente tá falando de pontuação, né? Então, se programa modelo pra ter uma média, meta de obter uma pontuação maior e aí ele, como todo, você dá ponto pra ele quando ele acerta e você tira o ponto quando ele erra, e aí você ensina ele a acertar mais, digamos assim, tá? É uma técnica de aprendizado de máquina que é muito empolgante segundo os especialistas, tá?
O que que ele tem de capacidade de fato? Pra algumas respostas e alguns benchmarks, ou seja, algumas provas que o pessoal usa pra medir a capacidade desses modelos, ele tem capacidade equivalente a de PhD pra produzir raciocínio em cima de algumas tarefas, tá? Ele lida bem com tarefas complexas, ele generaliza melhor e mais a partir de instruções mais simples, ou seja, ele entende mais e generaliza mais de jeito bom e preciso a partir de contexto que você dá, o teu prompt, né? Ele também demonstrou habilidades muito interessantes, eu vi exemplos disso, de descriptografar criptografias.
Ele tem esse conhecimento de conseguir decifrar código melhor do que o 4.0 faria, tá? Nesse modelo, os prompts precisam ser mais simples, tá bom? Isso é muito importante. Você precisa dar contexto, sim, pra ele, tá bom? Então, quando você for pedir qualquer coisa, como a gente ensina em prompt, você tem que dar contexto, mas é muito importante que o seu contexto seja super preciso.
Você colocar ali no meio coisas, que são pouco irrelevantes, né, quando você tá dando contexto, vai, vamos supor que você só, não dá pra subir documento, tá, eu vou falar disso, vamos supor que você copia e cola negócio aqui pra ajudar com o contexto, mas, sei lá, alguns parágrafos daquilo são super importantes pro contexto, outros nem tanto, isso não é bom pra esse modelo, é, isso pode fazer, piorar o raciocínio dele, ele ir por caminho nada a ver, então quando você for fazer prompt, seja simples no prompt, dê contexto, mas o contexto tem que ser contexto que seja muito relevante mesmo pro que você tá pedindo, tá?
Não é modelo multimodal. O que isso significa? Não dá, por enquanto, pra trabalhar com documento, subir documento, subir imagem, trabalhar com vídeo, com áudio, que é uma coisa que o GPT 4.0 faz. Isso pode rolar no futuro, né? Ele foi construído pra ter essa capacidade, então provavelmente no futuro isso vai rolar, mas por enquanto ele serve como chat GPT de texto, tá? Que é mais inteligente.
Tem uma coisa também importante sobre esse modelo, que ele tem limite de uso, tá? Então você precisa ter GPT pago pra usar. Se você for usar o Preview, que é esse que mostra o seu raciocínio, você tem direito a fazer 30 prompts por semana, e se for o Mini tem 50 prompts por semana de limite, tá bom?
Especialistas, eu acho que é a impressão que eu fiquei também, tá? Falaram assim, olha, é impressionante que ele tenha benchmarks são interessantes. Mas o movimento, assim, a melhora não é uau, vai transformar tudo, porque ele é muito bom ou muito melhor, só que em algumas tarefas específicas e não de maneira geral. Então, eu não acho que vai ser modelo, isso é uma coisa que eu sugiro, eu não vou trocar 100% do meu uso do 4.0 por esse aqui. Dependendo do que eu for pedir, se eu estiver falando de tarefas mais complexas, de coisas que eu preciso de raciocínio mais complexo, talvez, tá?
Eu tenho aqui uma trívia pra ver como ele vai se comportar com essa trívia, tá? É uma coisa que precisa de raciocínio lógico. Então eu vou pôr na mesma janela, tá? E é, ó, "Um camponês tem um barco e deseja atravessar um rio junto com uma couve, uma ovelha e um lobo de estimação. O barquinho do camponês comporta apenas um item além dele próprio. O barquinho pode levar e trazer itens. Você deve ficar atento às seguintes regras. O lobo devora a ovelha se os dois ficarem sozinhos e a ovelha come a couve se ficar sozinha com ela. Que sequência de viagens ele deve fazer para atravessar o rio levando e preservando todos os itens? Vamos lá?"
[O assistente analisa a resposta do modelo ao problema proposto]
Ele traduziu errado, colocou uma cabra no meio do raciocínio, mas aí a cabra sumiu aqui e ele fez o raciocínio certinho, tá? Ó, Resumo das margens, considerações importantes, é uma trívia, né? É uma coisa que demanda raciocínio lógico. Eu achei que foi legal, ele foi bem, e é o tipo de coisa que o GPT-4 ou 4.0 se confundiria, assim, tipo, piraria, tá? Ele talvez me inventasse uma cabra, mas, sim, é uma... Talvez ele se confundisse mais aqui. Não sei essa trivia, porque essa trivia é meio notória, né? Ela é famosa, mas é o tipo de coisa que ele costuma se confundir, tá?
Tem outras coisas que o pessoal reportou, que ele responde, que são interessantes também, por exemplo, o que é, perguntas de filosofia, tá? "O que é consciência?" Compreendendo a solicitação, escolhendo perspectivas. Oh! Legal. Já fiz essa pergunta pro GPT-4, acho que essa resposta tá bem melhor, tá?
Esse modelo é pior em língua portuguesa, muito pior em língua portuguesa, tá? Eu fiz alguns testes nele, eu já saquei isso. Que o 4.0, quando a gente compara o 4.0 em língua portuguesa e língua inglesa, tá? E faz o uso aqui em português e inglês e ele erra, ele erra muito o português, tá bom? Então, tenham isso em mente.
É isso. Quis dar para vocês panorama dessa ferramenta. Como sempre, nossa recomendação é chequem resultados, não confiem demais, mas testem muito, para a gente como foi esse processo, e daqui a gente também vai continuar testando para trazer para vocês mais aulas, mais tutoriais específicos de aplicações práticas, testes e de outras ferramentas de inteligência artificial. Obrigada e até a próxima!