Téma
- #Multi-Agent
- #RAG
- #Function Call
- #AI
- #LLM
Létrehozva: 2025-03-04
Létrehozva: 2025-03-04 21:53
Manapság az iparág legforróbb kulcsszava az LLM.
A Claude 3.5, a Grok3 és más hasonló modellek folyamatosan jelennek meg,
és egyre több LLM-et használó szolgáltatás is megjelenik, például a Rütten vagy a Zeta.
Fejlesztőként előbb-utóbb valószínűleg a mi szolgáltatásunkhoz is csatlakoztatni fogjuk az LLM-et,
ezért jobb, ha előre megismerjük az alapvető fogalmakat, hogy ne essünk kétségbe!
Ezért gyűjtöttem össze a legfontosabb kulcsszavakat.
Az LLM (Large Language Model), egyszerűen fogalmazva
"egy olyan AI, amely megérti a bevitt szöveget, és szöveges választ ad rá".
A GPT-4o, a Claude 3, a Grok3 és más modellek jelentik a legjobb példákat.
Manapság az LLM már nem csak szöveg generálására képes,
hanem kódolást, képanalízist, matematikai feladatok megoldását is el tudja végezni.
Úgy tűnik, eljött az idő, amikor a fejlesztők az AI-t eszközként használják.
Az LLM nem csak válaszol,
"hanem kérhetjük, hogy hívjon meg egy szükséges eszközt a feladat elvégzéséhez".
Például,
Az LLM azonban nem maga hívja meg az API-t,
a tényleges hívást nekünk kell kódolnunk ㅜㅜ
Bármennyire is okos az LLM,
csak a már betanult adatait használja a válasz generálásához.
De hogyan hívja le a legfrissebb híreket vagy a belső dokumentumokat?
Itt jön a képbe a RAG.
Így az LLM a legfrissebb információkat is figyelembe veheti.
Tehát, mielőtt az LLM válaszolna, először behelyezzük a válaszhoz szükséges anyagokat, és összefoglaljuk, vagy erre alapozva válaszolunk,
ezt mindRAG-nak nevezzük.
Az LLM modelleknél gyakran látunk 8B, 70B stb. számokat.
Ez a modell betanításához felhasznált paraméterek (Parameter) számát jelenti.
A nagyobb modellek pontosabbak, de a sebességük és a költségük is magasabb lehet.
Manapság a könnyű modellek használata a trend.
A nehezebb modellek lassabban válaszolnak,
ezért a végfelhasználók elhagyási aránya magasabb.
Az LLM nem egyedül végzi az összes feladatot,
hanem több kisebb AI (ügynök) együttműködik.
Például:
A feladatok felosztása gyorsabbá és pontosabbá teszi a válaszokat.
Mintha egy cég lenne: valaki frontend fejlesztő, valaki backend fejlesztő...
Az LLM nem mindig ad helyes választ.
Hibás válaszokat is adhat.
Ezért van szükség Validation Feedback-re.
Ezt automatizálva önmagát tanító LLM rendszert is létrehozhatunk.
Vagy ha a Function Call vagy a válasz formátuma rögzített,
kényszeríthetjük a formátum betartására.
Az OpenAI GPT-4o modelljének Function Call használatához
az alábbiak szerint implementálhatjuk.
🔹 TypeScript példa
A Function Call ilyen módon történő használatával
az LLM nem csak egyszerű szöveg generálására képes,
hanem tényleges funkciókat is végrehajthat, így egy **"valóban hasznos AI"**-vá válhat.
Ezeknek a Function Call-oknak a paraméterekkel való részletes kitöltése nagyon unalmas lehet.
Ezért a Vercel ai és a LangChain, mint például a zod nevű könyvtár segítségével
ellenőrzik az LLM által visszaadott paraméterek helyességét (Validation Feedback).
Így végeznek pontos Function Call-okat.
De a bonyolult függvények paramétereinek zod-dal történő egyenkénti definiálása nagyon fáradságos lehet,
és a fejlesztők számára ez " unalomba esés" érzést kelthet.
Ezért ajánlom azAgentica könyvtárat.
Csak ennyi egyszerű kód segítségével három osztály függvényeit és a swagger végpontjait
Function Call-ként definiáltuk, és automatikusan meghívjuk őket beszélgetés közben.
Így létrehoztunk egy egyszerű "chatbot ügynököt".
Az LLM és az AI kezelése egyre egyszerűbbé válik.
Ijesztő, hogy meddig terjed a technológia fejlődése.
Hozzászólások0