Sunrabbit

LLM pour les élèves du primaire

Création: 2025-03-04

Création: 2025-03-04 21:53

Le mot clé le plus populaire dans l'industrie en ce moment ? C’est LLM.
Des modèles comme Claude 3.5 et Grok3 continuent d’apparaître,
et les services utilisant LLM, tels que Rütten et Zeta, se multiplient.

En tant que développeurs, nous finirons probablement par intégrer LLM à nos services un jour ou l’autre,
et pour éviter toute surprise, il serait préférable de maîtriser les concepts de base au préalable !
C’est pourquoi j’ai dressé une liste des mots clés essentiels.


LLM

Pour simplifier, LLM (Large Language Model) est
"une IA qui comprend le texte saisi et répond par du texte".
Les modèles GPT-4o, Claude 3 et Grok3 en sont des exemples typiques.

Aujourd’hui, LLM ne se limite plus à la simple génération de phrases ;
il effectue diverses tâches telles que le codage, l’analyse d’images et la résolution d’équations.
Nous ne sommes plus à l’ère où le développeur utilise l’IA comme un simple outil, je crois.

Tool Call, Function Call

LLM ne se contente pas de répondre ;
il est également possible de lui demander d’"appeler les outils nécessaires pour faciliter le travail".

Par exemple,

  • si l’utilisateur dit : "Calcule ce nombre",
  • LLM demande l’appel de l’API de la calculatrice,
  • et renvoie le résultat à l’utilisateur.

Mais LLM ne fait pas directement l’appel de l’API ;
nous devons coder l’appel réel ! ㅜㅜ


RAG (Retrieval-Augmented Generation)

Si intelligent soit-il, LLM
ne génère des réponses qu’à partir des données déjà apprises.
Alors, comment récupérer des informations telles que les dernières nouvelles ou les documents internes ?

C’est là qu’intervient RAG.

  • Il recherche d’abord les informations nécessaires dans une base de données externe (Retrieval),
  • puis génère une réponse sur la base de ces informations (Generation).

De cette façon, LLM peut également prendre en compte les informations les plus récentes.

En d’autres termes, avant que LLM ne réponde, on lui fournit d’abord les documents nécessaires à la réponse, et le résumé ou la réponse basée sur ces documents est appelé
toutRAG.

4B, 8B, 308B ? Que signifient ces nombres ?

On trouve des nombres comme 8B ou 70B associés aux modèles LLM.
Cela représente le nombre deparamètres (Parameter) appris par le modèle.

  • 8B (8 milliards) → modèle léger, rapide
  • 308B (308 milliards) → modèle énorme, mais lent

Plus le modèle est grand, plus il est précis, mais sa vitesse et son coût peuvent être importants.
Aujourd’hui, il est tendance d’utiliser efficacement lesmodèles légers.

Plus le modèle est lourd, plus la vitesse de réponse est lente,
ce qui augmente le taux d’abandon des utilisateurs finaux.

Multi-Agent

LLM ne traite pas tout seul ;
plusieurs petites IA (agents) collaborent.

Par exemple :

  • l’un est chargé du codage,
  • l’autre de l’analyse de données,
  • et un autre de l’organisation des documents.

En répartissant les tâches de cette manière,la vitesse est plus rapide et les réponses sont plus précises.
N’est-ce pas comme une entreprise ? Quelqu’un s’occupe du front-end… quelqu’un d’autre du back-end…

Validation Feedback (Retour de validation)

LLM ne donne pas toujours la bonne réponse.
Il peut donner des réponses incorrectes.

C’est pourquoi leValidation Feedbackest nécessaire.

  • Si l’utilisateur donne un retour indiquant si la réponse de LLM est correcte ou incorrecte,
  • le modèle peut devenir de plus en plus intelligent.

Il est également possible d’automatiser cela pour créerun système d’apprentissage automatique de LLM.

Ou, lorsque Function Call ou le format de réponse est défini,
il est possible de forcer le respect du format si celui-ci n’est pas suivi.

Comment utiliser Function Call avec OpenAI

Pour utiliser Function Call avec GPT-4o d’OpenAI,
vous pouvez implémenter comme suit.

🔹 Exemple TypeScript

En utilisant Function Call de cette manière,
LLM peut évoluer au-delà de la simple génération de texte,
pour devenir une **\"vraie IA utile\"** capable d’exécuter des fonctions réelles.


Agentica

Le fait de remplir les valeurs des arguments de FunctionCall de manière détaillée peut être très fastidieux.
C’est pourquoi des outils comme Vercel ai et LangChain utilisent la librairie zod pour
effectuer une Validation Feedback sur les valeurs des arguments renvoyés par LLM.

Cela permet d’effectuer un Function Call très précis.

Cependant, le fait de créer des schémas zod pour chaque argument d’une fonction complexe est inévitablement fastidieux,
et les développeurs peuvent trouver cela"pénible".

C’est pourquoi je recommande la librairieAgentica.

Avec ce code simple, les fonctions des trois classes et les points de terminaison swagger sont
définis comme Function Call et configurés pour être appelés automatiquement pendant la conversation.

Ainsi, un simple"agent chatbot"est créé.


Ainsi, le domaine de la manipulation de LLM et de l’IA devient de plus en plus facile.
L’évolution de la technologie est effrayante.

Commentaires0