Sunrabbit

प्राथमिक विद्यालय के छात्रों के लिए LLM

  • लेखन भाषा: कोरियाई
  • आधार देश: सभी देशcountry-flag
  • आईटी

रचना: 2025-03-04

रचना: 2025-03-04 21:53

आजकल के उद्योग में सबसे ज़्यादा चर्चा का विषय है, LLM।
Claude 3.5, Grok3 जैसे मॉडल लगातार सामने आ रहे हैं,
और LLM का उपयोग करने वाली 뤼튼 (Ruiton) या 제타 (Zeta) जैसी सेवाएँ भी बढ़ रही हैं।

एक डेवलपर के तौर पर, हमें कभी न कभी अपनी सेवाओं में LLM को जोड़ना होगा,
इसलिए घबराने से बचने के लिए, इसकी बुनियादी अवधारणाओं को पहले से ही जान लेना बेहतर होगा!
इसलिए मैंने कुछ मुख्य शब्दों को एक साथ रखा है।


LLM

LLM (Large Language Model) को आसान शब्दों में कहें तो
"टेक्स्ट डालें, समझें और टेक्स्ट में जवाब दें" वाला AI है।
GPT-4o, Claude 3, Grok3 जैसे मॉडल इसके प्रमुख उदाहरण हैं।

आजकल LLM सिर्फ़ वाक्य बनाने से आगे बढ़कर
कोडिंग, छवि विश्लेषण, समीकरण हल करने जैसे कई काम कर रहा है।
मुझे लगता है कि अब डेवलपर्स AI का उपयोग एक उपकरण की तरह कर रहे हैं।

Tool Call, Function Call

LLM सिर्फ़ जवाब नहीं देता है,
"ज़रूरी उपकरण को बुलाकर काम में मदद करो!" ऐसा भी कह सकता है।

उदाहरण के लिए,

  • यदि उपयोगकर्ता कहता है, "इस संख्या की गणना करो"
  • तो LLM कैलकुलेटर API को कॉल करने का अनुरोध करता है
  • और उस परिणाम को उपयोगकर्ता को वापस भेजता है।

लेकिन LLM स्वयं API को कॉल नहीं करता है,
हमें इसे कोड से लागू करना होगा ㅜㅜ


RAG (Retrieval-Augmented Generation)

LLM कितना ही होशियार क्यों न हो,
यह पहले से सीखे गए डेटा से ही जवाब बनाता है।
तो ताज़ा खबर या कंपनी के दस्तावेज़ जैसी जानकारी कैसे प्राप्त करेगा?

इस समय ज़रूरत हैRAGकी।

  • बाहरी डेटाबेस से ज़रूरी जानकारी पहले खोजी जाती है (Retrieval),
  • और उस जानकारी के आधार पर जवाब बनाया जाता है (Generation)।

इस तरह LLM ताज़ा जानकारी भी शामिल कर सकता है।

यानी, LLM के जवाब देने से पहले, जवाब के लिए ज़रूरी सामग्री दी जाती है, और सारांश या उसके आधार पर जवाब दिया जाता है,
सबRAGकहलाता है।

4B, 8B, 308B? ये संख्याएँ क्या हैं?

LLM मॉडल में 8B, 70B जैसी संख्याएँ लगी होती हैं।
यहमॉडल द्वारा सीखे गए पैरामीटर (Parameter) की संख्याको दर्शाता है।

  • 8B (8 अरब) → हल्का मॉडल, तेज़
  • 308B (308 अरब) → बहुत बड़ा मॉडल, लेकिन धीमा

बड़ा मॉडल ज़्यादा सटीक होता है, लेकिन गति और लागत अधिक हो सकती है।
आजकलहल्के मॉडलका उपयोग करना चलन में है।

भारी मॉडल की प्रतिक्रिया धीमी होती है,
इसलिए अंतिम उपयोगकर्ताओं का त्याग दर अधिक हो जाता है।

मल्टी एजेंट (Multi-Agent)

LLM अकेले सब कुछ नहीं करता है,
कई छोटे AI (एजेंट) मिलकर काम करते हैं।

उदाहरण के लिए:

  • एक कोडिंग का काम करेगा
  • एक डेटा विश्लेषण करेगा
  • एक दस्तावेज़ व्यवस्थित करेगा।

इस तरह काम बाँटने सेगति तेज होती है, और ज़्यादा सटीक जवाब मिलते हैं
यह एक कंपनी की तरह है, कोई फ्रंट-एंड का काम करता है, कोई बैक-एंड का।

वैलिडेशन फीडबैक (Validation Feedback)

LLM हमेशा सही जवाब नहीं देता है।
गलत जवाब भी दे सकता है।

इसलिएवैलिडेशन फीडबैककी ज़रूरत है।

  • यदि उपयोगकर्ता LLM के जवाब के सही या गलत होने का फीडबैक देता है,
  • तो मॉडल और भी होशियार हो सकता है।

इसे स्वचालित करकेLLM की स्व-सीखने वाली प्रणालीबनाई जा सकती है।

या Function Call या प्रतिक्रिया स्वरूप निश्चित होने पर
यदि स्वरूप का पालन नहीं किया जाता है, तो स्वरूप का पालन करने के लिए बाध्य किया जा सकता है।

OpenAI में Function Call का उपयोग कैसे करें

वास्तव में OpenAI के GPT-4o का उपयोग करके Function Call का उपयोग करने के लिए,
इसे इस तरह लागू किया जा सकता है।

🔹 TypeScript उदाहरण

इस तरह Function Call का उपयोग करके,
LLM सिर्फ़ टेक्स्ट नहीं बनाता है,
बल्कि वास्तविक कार्य करने वाला **"वास्तव में उपयोगी AI"** बन सकता है।


Agentica

इन FunctionCall में विस्तार से पैरामीटर भरना बहुत थकाऊ हो सकता है।
इसलिए Vercel ai या LangChain जैसे टूल zod नामक लाइब्रेरी का उपयोग करते हैं
LLM द्वारा लौटाए गए पैरामीटर की जाँच करते हैं।

इस तरह सटीक Function Call किया जाता है।

लेकिन, जटिल फ़ंक्शन के पैरामीटर के लिए एक-एक करके zod के साथ स्कीमा लिखना बहुत थकाऊ है
डेवलपर को यह"थकाऊ"लग सकता है।

इसलिए मैंAgenticaनामक लाइब्रेरी का सुझाव देता हूँ।

इस सरल कोड से, तीन क्लास के फ़ंक्शन और swagger के एंडपॉइंट
Function Call के रूप में निर्दिष्ट किए गए हैं, और बातचीत के दौरान स्वचालित रूप से कॉल किए जाते हैं।

इस प्रकार एक सरल"चैटबॉट एजेंट"बन गया है।


इस तरह LLM और AI का उपयोग करना आसान होता जा रहा है।
प्रौद्योगिकी का विकास बहुत डरावना है।

टिप्पणियाँ0

ओपन सोर्स से पूर्ण AI फुल स्टैकओपन सोर्स AI फुल स्टैक के निर्माण के लिए विभिन्न LLM, अनुमान और सर्विंग टूल, फ्रेमवर्क और मॉनिटरिंग समाधान पेश किए गए हैं। LangChain, LlamaIndex आदि का उपयोग करके AI एप्लिकेशन विकसित करें।
RevFactory
RevFactory
RevFactory
RevFactory

February 5, 2024

एसके सी एंड सी, ग्राहकों के अनुकूलित sLLM कार्यान्वयन सहायता मंच 'सोलुअर LLMOps' पेश करता हैएसके सी एंड सी ने उद्यमों के लिए अनुकूलित छोटे LLM कार्यान्वयन मंच 'सोलुअर LLMOps' लॉन्च किया है। विभिन्न फाउंडेशन मॉडल का उपयोग और हाइपरऑटोमेशन के अनुप्रयोग से दक्षता में वृद्धि हुई है।
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

May 20, 2024

मुफ़्त AI मल्टी आर्टिफ़िशियल इंटेलिजेंस - एडॉट (A.) पीसी संस्करण - विभिन्न AI मॉडल एक साथ उपयोग करेंSK텔레콤 का एडॉट पीसी संस्करण जारी कर दिया गया है। यह एक मल्टी LLM एजेंट सेवा है जिसका उपयोग विभिन्न AI मॉडल को मुफ्त में करके तुलना करने के लिए किया जा सकता है।
Curator Danbi - Creator Story
Curator Danbi - Creator Story
Curator Danbi - Creator Story
Curator Danbi - Creator Story

November 26, 2024

कृत्रिम बुद्धिमत्ता और प्राकृतिक भाषा प्रसंस्करण: मानव भाषा की व्याख्या करने वाली मशीन की शक्तिकृत्रिम बुद्धिमत्ता और प्राकृतिक भाषा प्रसंस्करण तकनीक के सिद्धांतों, उपयोग के मामलों, नैतिक मुद्दों और भविष्य के दृष्टिकोण पर गहराई से विश्लेषणात्मक लेख। चैटबॉट, मशीन ट्रांसलेशन आदि जैसे विभिन्न अनुप्रयोगों के उदाहरणों के साथ-साथ डेवलपर्स के लिए व्यावहार
Cherry Bee
Cherry Bee
Cherry Bee
Cherry Bee

March 25, 2025