Temat
- #Wieloagentowy (Multi-Agent)
- #LLM
- #Sztuczna inteligencja (AI)
- #RAG
- #Wywołanie funkcji (Function Call)
Utworzono: 2025-03-04
Utworzono: 2025-03-04 21:53
Najgorętsze obecnie w branży słowo kluczowe to LLM.
Ciągle pojawiają się nowe modele, takie jak Claude 3.5 czy Grok3,
a także rośnie liczba usług wykorzystujących LLM, takich jak Rytton czy Zeta.
Jako deweloperzy, prędzej czy później będziemy musieli wdrożyć LLM w naszych usługach,
więc lepiej zapoznać się z podstawowymi pojęciami, aby uniknąć zaskoczenia!
Dlatego postanowiłem uporządkować najważniejsze słowa kluczowe.
LLM (Large Language Model) to, mówiąc prosto,
"sztuczna inteligencja, która rozumie tekst i odpowiada na niego tekstem".
Przykładem takich modeli są GPT-4o, Claude 3 i Grok3.
Obecnie LLM to coś więcej niż tylko generowanie zdań.
Potrafią one wykonywać różne zadania, takie jak kodowanie, analiza obrazów czy rozwiązywanie równań.
Wydaje się, że nadeszła era, w której programiści wykorzystują AI jako narzędzie.
LLM nie tylko udziela odpowiedzi,
ale można je też poprosić o "wywołanie potrzebnych narzędzi w celu wsparcia pracy".
Na przykład,
LLM jednak nie wywołuje API bezpośrednio,
to my musimy zaimplementować to w kodzie ㅜㅜ
Nawet najinteligentniejsze LLM
generują odpowiedzi na podstawie już istniejących danych.
Jak więc uzyskać dostęp do najnowszych wiadomości lub wewnętrznych dokumentów firmy?
Wtedy potrzebne jest RAG.
Dzięki temu LLM może uwzględniać najnowsze informacje.
Innymi słowy, zanim LLM odpowie, najpierw podajemy mu niezbędne materiały, a następnie generuje podsumowanie lub odpowiedź na ich podstawie,
wszystko to nazywa się RAG.
Obok modeli LLM często widzimy liczby takie jak 8B czy 70B.
Oznaczają one liczbę parametrów (Parameter) modelu.
Im większy model, tym bardziej precyzyjny, ale może to generować wyższe koszty i obniżać szybkość.
Obecnie trendem jest efektywne wykorzystanie lekich modeli.
Im cięższy model, tym wolniejsza odpowiedź,
co prowadzi do wzrostu odsetka rezygnacji użytkowników.
LLM nie musi zajmować się wszystkim samodzielnie,
może współpracować z wieloma mniejszymi AI (agentami).
Na przykład:
Podział zadań pozwala na szybsze działanie i bardziej precyzyjne odpowiedzi.
Jak w firmie, prawda? Jeden zajmuje się front-endem, drugi back-endem...
LLM nie zawsze mają rację.
Mogą udzielać błędnych odpowiedzi.
Dlatego potrzebna jest Validation Feedback.
Można zautomatyzować ten proces i stworzyć system samouczący się dla LLM.
Lub też, gdy zdefiniowane są Function Call lub format odpowiedzi,
można wymusić przestrzeganie formatu.
Aby użyć Function Call z GPT-4o OpenAI,
można to zaimplementować w następujący sposób.
🔹 Przykład w TypeScript
Dzięki wykorzystaniu Function Call,
LLM może nie tylko generować tekst,
ale także wykonywać rzeczywiste funkcje, stając się **"naprawdę użyteczną AI"**.
Szczegółowe wypełnianie wartości parametrów w Function Call może być bardzo żmudne.
Dlatego takie narzędzia jak Vercel ai czy LangChain wykorzystują bibliotekę zod do
weryfikacji zwrotnej (Validation Feedback) poprawności wartości parametrów zwracanych przez LLM.
W ten sposób realizowane są dokładne Function Call.
Jednak ręczne tworzenie schematów zod dla złożonych funkcji i ich parametrów może być bardzo uciążliwe i
programiści mogą odczuwać to jako "nudne" zadanie.
Dlatego polecam bibliotekę Agentica.
Za pomocą tak prostego kodu, funkcje z trzech klas i punkty końcowe swagger zostały
zdefiniowane jako Function Call i skonfigurowane do automatycznego wywoływania podczas konwersacji..
W ten sposób stworzyliśmy prostego "agenta czatu".
Obszar pracy z LLM i AI staje się coraz prostszy.
Postęp technologiczny jest naprawdę przerażający.
Komentarze0