Guia Básico para LLMs segundo o Google (Parte 1)
O Google tem guia bem resumido pra você sair do zero sobre os modelos de linguagem de grande escala
Você pode acessar o guia aqui nesse link [1]
Segundo o Google, os large language models (LLMs) são aplicações sofisticadas para autocompletar algo.
Por exemplo, se você der como entrada a frase “Agua mole, pedra dura”, um LLM lhe trará como resposta mais provável estatisticamente a frase “tanto bate, até que fura”.
Isso acontece com base nos padrões aprendidos dos dados de treino.
Essa propriedade básica dos LLMs permitiram o desenvolvimento de várias aplicações:
- Gerar poesias, histórias curtas,metáforas, artigos para blogs e outros trabalhos criativos de escrita.
- Converter dados estraturados em texto livre,
- Extrair informações e resumir.
- Gerar código de programação.
- Tradução.
- Construir chatbot para trabalhar como assistentes.
A grande vantagem de utilizar LLMs para construir esses tipos de produtos é que agora você não precisa treinar um modelo com uma grande quantidade de dados. Ou aprender a programar em diversas linguagens. Tudo o que você precisa é saber como descrever o que você quer em algumas sentenças.
Gerar histórias:
A história abaixo não está completa.
Gerar uma lista de tarefas
Os modelos LLMs podem ter comportamentos diversos a depender do input que é utilizado, a depender do prompt utilizado temos um resultado.
A arte e a ciência de utilizar as palavras corretas para obter o que deseja de um LLM é chamada de Engenharia de Prompt.
O Básico de engenharia de Prompt
Os prompts que usamos anteriormente são chamados de zero-shot prompt, pois contém apenas a instrução direta “escreva uma história”. São o tipo mais simples, contudo, para algumas aplicações esse tipo de prompt não é suficiente.
A técnica um pouco mais avançada é a chamada de few-shot prompting, significa que vamos passar alguns (few) exemplos para o modelo aprender algum padrão.
Os modelos de machine learning são incrivelmente capazes de aprender e reconhecer padrões em dados textuais.
Exemplo:
Essa técnica pode ser utilizada para as mais diversas aplicações.
No exemplo acima o Gemini foi capaz de perceber que o objetivo era converter de Python para Javascript e explicou que não há uma conversão direta.
Diferenças dos Prompts para Progamação Tradicional
Na programação tradicional seguimos uma especificação precisa e todos os comportamentos podem ser mapeados. Ao utilizar prompts nas LLMs o comportamento pode variar a depender dos dados utilizados e de detalhes nos prompts.
E como os modelos estão sendo constantemente treinados, um resultado pode não ser replicado em uma nova versão.
Ou seja, os prompts precisam ser sempre testados novamente e adaptados.
Para mais conteúdo, siga no @aprendadatascience