Guia Básico para LLMs segundo o Google (Parte 1)

Alex Barros
3 min readFeb 20, 2024

--

O Google tem guia bem resumido pra você sair do zero sobre os modelos de linguagem de grande escala

Você pode acessar o guia aqui nesse link [1]

Segundo o Google, os large language models (LLMs) são aplicações sofisticadas para autocompletar algo.

Por exemplo, se você der como entrada a frase “Agua mole, pedra dura”, um LLM lhe trará como resposta mais provável estatisticamente a frase “tanto bate, até que fura”.

Resposta do Gemini

Isso acontece com base nos padrões aprendidos dos dados de treino.
Essa propriedade básica dos LLMs permitiram o desenvolvimento de várias aplicações:

  • Gerar poesias, histórias curtas,metáforas, artigos para blogs e outros trabalhos criativos de escrita.
  • Converter dados estraturados em texto livre,
  • Extrair informações e resumir.
  • Gerar código de programação.
  • Tradução.
  • Construir chatbot para trabalhar como assistentes.

A grande vantagem de utilizar LLMs para construir esses tipos de produtos é que agora você não precisa treinar um modelo com uma grande quantidade de dados. Ou aprender a programar em diversas linguagens. Tudo o que você precisa é saber como descrever o que você quer em algumas sentenças.

Gerar histórias:

A história abaixo não está completa.

Gerar uma lista de tarefas

Os modelos LLMs podem ter comportamentos diversos a depender do input que é utilizado, a depender do prompt utilizado temos um resultado.

A arte e a ciência de utilizar as palavras corretas para obter o que deseja de um LLM é chamada de Engenharia de Prompt.

O Básico de engenharia de Prompt

Os prompts que usamos anteriormente são chamados de zero-shot prompt, pois contém apenas a instrução direta “escreva uma história”. São o tipo mais simples, contudo, para algumas aplicações esse tipo de prompt não é suficiente.

A técnica um pouco mais avançada é a chamada de few-shot prompting, significa que vamos passar alguns (few) exemplos para o modelo aprender algum padrão.
Os modelos de machine learning são incrivelmente capazes de aprender e reconhecer padrões em dados textuais.
Exemplo:

Essa técnica pode ser utilizada para as mais diversas aplicações.

No exemplo acima o Gemini foi capaz de perceber que o objetivo era converter de Python para Javascript e explicou que não há uma conversão direta.

Diferenças dos Prompts para Progamação Tradicional

Na programação tradicional seguimos uma especificação precisa e todos os comportamentos podem ser mapeados. Ao utilizar prompts nas LLMs o comportamento pode variar a depender dos dados utilizados e de detalhes nos prompts.

E como os modelos estão sendo constantemente treinados, um resultado pode não ser replicado em uma nova versão.

Ou seja, os prompts precisam ser sempre testados novamente e adaptados.

Para mais conteúdo, siga no @aprendadatascience

[1] https://ai.google.dev/docs/concepts

--

--

Alex Barros
Alex Barros

Written by Alex Barros

Engenheiro da Computação. Mestre e Doutorando em Computação Aplicada. Coordenador do Escritório de Projetos e Processos no TRT8.

No responses yet