Sujet
- #Multi-agent
- #LLM
- #IA
- #RAG
- #Appel de fonction
Création: 2025-03-04
Création: 2025-03-04 21:53
Le mot clé le plus populaire dans l'industrie en ce moment ? C’est LLM.
Des modèles comme Claude 3.5 et Grok3 continuent d’apparaître,
et les services utilisant LLM, tels que Rütten et Zeta, se multiplient.
En tant que développeurs, nous finirons probablement par intégrer LLM à nos services un jour ou l’autre,
et pour éviter toute surprise, il serait préférable de maîtriser les concepts de base au préalable !
C’est pourquoi j’ai dressé une liste des mots clés essentiels.
Pour simplifier, LLM (Large Language Model) est
"une IA qui comprend le texte saisi et répond par du texte".
Les modèles GPT-4o, Claude 3 et Grok3 en sont des exemples typiques.
Aujourd’hui, LLM ne se limite plus à la simple génération de phrases ;
il effectue diverses tâches telles que le codage, l’analyse d’images et la résolution d’équations.
Nous ne sommes plus à l’ère où le développeur utilise l’IA comme un simple outil, je crois.
LLM ne se contente pas de répondre ;
il est également possible de lui demander d’"appeler les outils nécessaires pour faciliter le travail".
Par exemple,
Mais LLM ne fait pas directement l’appel de l’API ;
nous devons coder l’appel réel ! ㅜㅜ
Si intelligent soit-il, LLM
ne génère des réponses qu’à partir des données déjà apprises.
Alors, comment récupérer des informations telles que les dernières nouvelles ou les documents internes ?
C’est là qu’intervient RAG.
De cette façon, LLM peut également prendre en compte les informations les plus récentes.
En d’autres termes, avant que LLM ne réponde, on lui fournit d’abord les documents nécessaires à la réponse, et le résumé ou la réponse basée sur ces documents est appelé
toutRAG.
On trouve des nombres comme 8B ou 70B associés aux modèles LLM.
Cela représente le nombre deparamètres (Parameter) appris par le modèle.
Plus le modèle est grand, plus il est précis, mais sa vitesse et son coût peuvent être importants.
Aujourd’hui, il est tendance d’utiliser efficacement lesmodèles légers.
Plus le modèle est lourd, plus la vitesse de réponse est lente,
ce qui augmente le taux d’abandon des utilisateurs finaux.
LLM ne traite pas tout seul ;
plusieurs petites IA (agents) collaborent.
Par exemple :
En répartissant les tâches de cette manière,la vitesse est plus rapide et les réponses sont plus précises.
N’est-ce pas comme une entreprise ? Quelqu’un s’occupe du front-end… quelqu’un d’autre du back-end…
LLM ne donne pas toujours la bonne réponse.
Il peut donner des réponses incorrectes.
C’est pourquoi leValidation Feedbackest nécessaire.
Il est également possible d’automatiser cela pour créerun système d’apprentissage automatique de LLM.
Ou, lorsque Function Call ou le format de réponse est défini,
il est possible de forcer le respect du format si celui-ci n’est pas suivi.
Pour utiliser Function Call avec GPT-4o d’OpenAI,
vous pouvez implémenter comme suit.
🔹 Exemple TypeScript
En utilisant Function Call de cette manière,
LLM peut évoluer au-delà de la simple génération de texte,
pour devenir une **\"vraie IA utile\"** capable d’exécuter des fonctions réelles.
Le fait de remplir les valeurs des arguments de FunctionCall de manière détaillée peut être très fastidieux.
C’est pourquoi des outils comme Vercel ai et LangChain utilisent la librairie zod pour
effectuer une Validation Feedback sur les valeurs des arguments renvoyés par LLM.
Cela permet d’effectuer un Function Call très précis.
Cependant, le fait de créer des schémas zod pour chaque argument d’une fonction complexe est inévitablement fastidieux,
et les développeurs peuvent trouver cela"pénible".
C’est pourquoi je recommande la librairieAgentica.
Avec ce code simple, les fonctions des trois classes et les points de terminaison swagger sont
définis comme Function Call et configurés pour être appelés automatiquement pendant la conversation.
Ainsi, un simple"agent chatbot"est créé.
Ainsi, le domaine de la manipulation de LLM et de l’IA devient de plus en plus facile.
L’évolution de la technologie est effrayante.
Commentaires0