Sunrabbit

İlkokul Çocukları İçin LLM

  • Yazım Dili: Korece
  • Baz Ülke: Tüm Ülkelercountry-flag
  • BT

Oluşturulma: 2025-03-04

Oluşturulma: 2025-03-04 21:53

Son zamanlarda sektörde en popüler terim, LLM (Büyük Dil Modeli).
Claude 3.5, Grok3 gibi modeller sürekli ortaya çıkıyor ve
뤼튼 (Rütten) veya 제타 (Zeta) gibi LLM'yi kullanan hizmetler de artıyor.

Geliştirici olarak, bir gün bizim hizmetimize de LLM ekleyeceğiz,
o zaman şaşırmamak için temel kavramları önceden öğrenmek iyi olmaz mı diye düşünüyorum!
Bu yüzden temel kelimeleri bir kez daha özetledim.


LLM

LLM (Large Language Model), basitçe söylemek gerekirse
"metin girdisi alıp, anlayıp metin olarak yanıt veren bir AI".
GPT-4o, Claude 3, Grok3 gibi modeller bunun en iyi örnekleridir.

Günümüzde LLM'ler sadece cümle oluşturmanın ötesinde
kodlama, resim analizi, denklem çözme gibi çeşitli görevleri yerine getiriyor.
Artık geliştiricilerin AI'yı bir araç gibi kullandığı bir çağda olduğumuzu düşünüyorum.

Tool Call, Function Call

LLM sadece yanıt vermekle kalmıyor,
"gerekli araçları çağırıp işimi yapmama yardım et!" diye de talepte bulunabiliyoruz.

Örneğin,

  • Kullanıcı "bu sayıları hesapla" derse
  • LLM hesap makinesi API'sini çağırmayı talep eder ve
  • sonucu kullanıcıya iletir.

Ancak LLM doğrudan API'yi çağırmaz,
gerçek çağırmayı biz kodla yapmalıyız ㅜㅜ


RAG (Retrieval-Augmented Generation)

LLM ne kadar zeki olursa olsun,
zaten öğrenilmiş verileri kullanarak yanıt oluşturur.
Peki en son haberleri veya şirket içi belgeleri nasıl alıyor?

İşte burada RAG devreye giriyor.

  • Harici veritabanından önce gerekli bilgileri arar (Retrieval) ve
  • bu bilgilere dayanarak yanıt oluşturur (Generation).

Böylece LLM en son bilgileri de yansıtabilir.

Yani, LLM yanıtlamadan önce, öncelikle yanıta ihtiyaç duyulan verileri ekler ve özetler veya bunlara dayanarak yanıt verir.
Bütün bunlaraRAGdenir.

4B, 8B, 308B? Bu sayılar ne anlama geliyor?

LLM modellerine baktığımızda 8B, 70B gibi sayılar görürüz.
Bumodelin eğitimi sırasında kullanılan parametre (Parameter) sayısınıgösterir.

  • 8B (8 milyar) → Hafif model, hızlı
  • 308B (308 milyar) → Çok büyük model, ancak yavaş

Büyük modeller daha hassas olsa da, hız ve maliyet açısından sorun olabilir.
Günümüzdehafif modellerikullanmak trend.

Ağır modellerin yanıt süresi yavaş olduğu için
son kullanıcıların ayrılma oranı artıyor.

Çoklu Ajan (Multi-Agent)

LLM her şeyi tek başına yapmıyor,
birkaç küçük AI (ajan) iş birliği yaparak çalışıyor.

Örneğin:

  • biri kodlama yapıyor
  • biri veri analizi yapıyor
  • biri belge düzenleme yapıyor.

Görevleri böylece paylaşarakhem hız artıyor hem de daha doğru yanıtlar alınabiliyor.
Tıpkı bir şirket gibi değil mi? Kimisi ön uçta, kimisi arka uçta çalışıyor...

Doğrulama Geri Bildirimi (Validation Feedback)

LLM her zaman doğruyu söylemez.
Yanlış yanıtlar da verebilir.

Bu yüzdenDoğrulama Geri Bildirimigereklidir.

  • Kullanıcı LLM'nin yanıtının doğru mu yanlış mı olduğunu geri bildirirse
  • model giderek daha akıllı hale gelir.

Bunu otomatikleştirerekLLM'nin kendi kendine öğrenen bir sistemoluşturulabilir.

Veya Function Call veya yanıt formatı belirlendiğinde
formata uymuyorsa, formata uyması zorunlu kılınabilir.

OpenAI'de Function Call Kullanımı

OpenAI'nin GPT-4o'sunda Function Call kullanmak için
aşağıdaki gibi uygulanabilir.

🔹 TypeScript Örneği

Function Call bu şekilde kullanılırsa,
LLM sadece metin oluşturmakla kalmaz,
gerçek işlevleri yerine getiren **"gerçekten kullanışlı bir AI"** haline gelir.


Agentica

Bu Function Call'larda parametre değerlerini ayrıntılı olarak doldurmak çok zahmetli olabilir.
Bu yüzden Vercel ai veya LangChain gibi araçlar, zod adlı kütüphane ile
LLM tarafından döndürülen parametre değerlerinin doğruluğunu, Doğrulama Geri Bildirimi ile kontrol eder.

Böylece yüksek doğrulukta Function Call gerçekleştirilir.

Ancak, karmaşık fonksiyonların parametre değerlerini tek tek zod ile şema olarak yazmak çok zahmetli olabilir ve
geliştiriciler bunu"sıkıcı"bulabilirler.

Bu nedenle benAgenticakütüphanesini öneriyorum.

Yukarıdaki basit kod ile üç sınıfın fonksiyonları ve swagger'ın uç noktaları
Function Call olarak atanmış ve konuşma sırasında otomatik olarak çağrılacak şekilde ayarlanmıştır..

Böylece basit bir"sohbet robotu ajanı"oluşturulmuştur.


LLM ve AI'yı kullanan alanlar giderek daha kolay hale geliyor.
Teknolojinin gelişimi gerçekten korkutucu.

Yorumlar0