विषय
- #LLM
- #Function Call
- #AI
- #RAG
- #Multi-Agent
रचना: 2025-03-04
रचना: 2025-03-04 21:53
आजकल के उद्योग में सबसे ज़्यादा चर्चा का विषय है, LLM।
Claude 3.5, Grok3 जैसे मॉडल लगातार सामने आ रहे हैं,
और LLM का उपयोग करने वाली 뤼튼 (Ruiton) या 제타 (Zeta) जैसी सेवाएँ भी बढ़ रही हैं।
एक डेवलपर के तौर पर, हमें कभी न कभी अपनी सेवाओं में LLM को जोड़ना होगा,
इसलिए घबराने से बचने के लिए, इसकी बुनियादी अवधारणाओं को पहले से ही जान लेना बेहतर होगा!
इसलिए मैंने कुछ मुख्य शब्दों को एक साथ रखा है।
LLM (Large Language Model) को आसान शब्दों में कहें तो
"टेक्स्ट डालें, समझें और टेक्स्ट में जवाब दें" वाला AI है।
GPT-4o, Claude 3, Grok3 जैसे मॉडल इसके प्रमुख उदाहरण हैं।
आजकल LLM सिर्फ़ वाक्य बनाने से आगे बढ़कर
कोडिंग, छवि विश्लेषण, समीकरण हल करने जैसे कई काम कर रहा है।
मुझे लगता है कि अब डेवलपर्स AI का उपयोग एक उपकरण की तरह कर रहे हैं।
LLM सिर्फ़ जवाब नहीं देता है,
"ज़रूरी उपकरण को बुलाकर काम में मदद करो!" ऐसा भी कह सकता है।
उदाहरण के लिए,
लेकिन LLM स्वयं API को कॉल नहीं करता है,
हमें इसे कोड से लागू करना होगा ㅜㅜ
LLM कितना ही होशियार क्यों न हो,
यह पहले से सीखे गए डेटा से ही जवाब बनाता है।
तो ताज़ा खबर या कंपनी के दस्तावेज़ जैसी जानकारी कैसे प्राप्त करेगा?
इस समय ज़रूरत हैRAGकी।
इस तरह LLM ताज़ा जानकारी भी शामिल कर सकता है।
यानी, LLM के जवाब देने से पहले, जवाब के लिए ज़रूरी सामग्री दी जाती है, और सारांश या उसके आधार पर जवाब दिया जाता है,
सबRAGकहलाता है।
LLM मॉडल में 8B, 70B जैसी संख्याएँ लगी होती हैं।
यहमॉडल द्वारा सीखे गए पैरामीटर (Parameter) की संख्याको दर्शाता है।
बड़ा मॉडल ज़्यादा सटीक होता है, लेकिन गति और लागत अधिक हो सकती है।
आजकलहल्के मॉडलका उपयोग करना चलन में है।
भारी मॉडल की प्रतिक्रिया धीमी होती है,
इसलिए अंतिम उपयोगकर्ताओं का त्याग दर अधिक हो जाता है।
LLM अकेले सब कुछ नहीं करता है,
कई छोटे AI (एजेंट) मिलकर काम करते हैं।
उदाहरण के लिए:
इस तरह काम बाँटने सेगति तेज होती है, और ज़्यादा सटीक जवाब मिलते हैं।
यह एक कंपनी की तरह है, कोई फ्रंट-एंड का काम करता है, कोई बैक-एंड का।
LLM हमेशा सही जवाब नहीं देता है।
गलत जवाब भी दे सकता है।
इसलिएवैलिडेशन फीडबैककी ज़रूरत है।
इसे स्वचालित करकेLLM की स्व-सीखने वाली प्रणालीबनाई जा सकती है।
या Function Call या प्रतिक्रिया स्वरूप निश्चित होने पर
यदि स्वरूप का पालन नहीं किया जाता है, तो स्वरूप का पालन करने के लिए बाध्य किया जा सकता है।
वास्तव में OpenAI के GPT-4o का उपयोग करके Function Call का उपयोग करने के लिए,
इसे इस तरह लागू किया जा सकता है।
🔹 TypeScript उदाहरण
इस तरह Function Call का उपयोग करके,
LLM सिर्फ़ टेक्स्ट नहीं बनाता है,
बल्कि वास्तविक कार्य करने वाला **"वास्तव में उपयोगी AI"** बन सकता है।
इन FunctionCall में विस्तार से पैरामीटर भरना बहुत थकाऊ हो सकता है।
इसलिए Vercel ai या LangChain जैसे टूल zod नामक लाइब्रेरी का उपयोग करते हैं
LLM द्वारा लौटाए गए पैरामीटर की जाँच करते हैं।
इस तरह सटीक Function Call किया जाता है।
लेकिन, जटिल फ़ंक्शन के पैरामीटर के लिए एक-एक करके zod के साथ स्कीमा लिखना बहुत थकाऊ है
डेवलपर को यह"थकाऊ"लग सकता है।
इसलिए मैंAgenticaनामक लाइब्रेरी का सुझाव देता हूँ।
इस सरल कोड से, तीन क्लास के फ़ंक्शन और swagger के एंडपॉइंट
Function Call के रूप में निर्दिष्ट किए गए हैं, और बातचीत के दौरान स्वचालित रूप से कॉल किए जाते हैं।
इस प्रकार एक सरल"चैटबॉट एजेंट"बन गया है।
इस तरह LLM और AI का उपयोग करना आसान होता जा रहा है।
प्रौद्योगिकी का विकास बहुत डरावना है।
टिप्पणियाँ0