Assunto
- #IA
- #LLM
- #Chamada de Função
- #RAG
- #Multiagente
Criado: 2025-03-04
Criado: 2025-03-04 21:53
A palavra-chave mais quente no setor atualmente é LLM.
Modelos como Claude 3.5 e Grok3 estão surgindo continuamente,
e serviços que utilizam LLM, como o Rütten e o Zeta, também estão aumentando.
Como desenvolvedor, em algum momento integraremos um LLM ao nosso serviço,
então, para não ficarmos perplexos naquela hora, acho melhor entendermos os conceitos básicos antecipadamente!
Portanto, decidi organizar algumas palavras-chave essenciais.
LLM (Large Language Model) em termos simples é
"uma IA que entende o texto inserido e responde com texto".
Modelos como GPT-4o, Claude 3 e Grok3 são exemplos representativos.
Atualmente, o LLM vai além da simples geração de frases,
realizando diversas tarefas, como codificação, análise de imagens e resolução de equações.
Acho que não estamos mais na era em que o desenvolvedor usa a IA como uma ferramenta.
O LLM não apenas responde,
"mas também pode ser solicitado a chamar as ferramentas necessárias para ajudar no trabalho".
Por exemplo,
No entanto, o LLM não chama a API diretamente,
precisamos implementar a chamada real em código ㅜㅜ
Por mais inteligente que seja o LLM,
ele gera respostas com base apenas nos dados com os quais foi treinado.
Então, como recuperamos informações como as últimas notícias ou documentos internos?
É aí que entra o RAG.
Dessa forma, o LLM também pode refletir as informações mais recentes.
Em outras palavras, antes que o LLM responda, ele recebe os materiais necessários para a resposta, e o resumo ou a resposta com base nisso é chamado de
tudo RAG.
Ao observar os modelos LLM, vemos números como 8B e 70B anexados.
Isso significa o número de parâmetros (Parameter) que o modelo aprendeu.
Quanto maior o modelo, mais sofisticado ele é, mas a velocidade e o custo podem ser um problema.
Atualmente, o uso demodelos levesestá se tornando uma tendência.
Quanto mais pesado o modelo, mais lenta é a resposta,
o que leva a uma alta taxa de abandono dos usuários finais.
O LLM não lida com tudo sozinho,
mas várias IAs menores (agentes) trabalham juntas.
Por exemplo:
Ao dividir as tarefas dessa maneira,a velocidade aumenta e respostas mais precisas são possíveis.
Não é como uma empresa? Alguém cuida do front-end... alguém cuida do back-end...
O LLM nem sempre diz a verdade.
Ele pode dar respostas incorretas.
Portanto, é necessário o Feedback de Validação.
Isso pode ser automatizado para criarum sistema em que o próprio LLM aprende.
Ou, quando a chamada de função ou o formato de resposta são definidos,
podemos forçar o cumprimento do formato se ele não for seguido.
Para usar realmente a chamada de função usando o GPT-4o do OpenAI,
pode ser implementado da seguinte maneira.
🔹 Exemplo em TypeScript
Usando a chamada de função dessa maneira,
o LLM pode evoluir para uma **"IA realmente útil"** que não apenas gera texto,
mas também executa funções reais.
Preencher os valores dos parâmetros dessas chamadas de função pode ser muito trabalhoso.
Portanto, ferramentas como Vercel ai e LangChain usam a biblioteca zod para
fornecer feedback de validação sobre se os valores de parâmetros retornados pelo LLM estão corretos.
Assim, uma chamada de função com alta precisão é realizada.
No entanto, escrever um esquema com zod para cada parâmetro de uma função complexa é inevitavelmente trabalhoso,
e o desenvolvedor pode achar que é"uma chatice".
Portanto, recomendo a bibliotecaAgentica.
Com apenas este código simples, as funções em três classes e os endpoints swagger são
definidos como chamadas de função e configurados para serem chamados automaticamente durante a conversa...
Portanto, um simples"agente de chatbot"foi criado.
Assim, o campo de lidar com LLM e IA está se tornando cada vez mais fácil.
É assustador até onde o desenvolvimento tecnológico chegou.
Comentários0