Konu
- #RAG
- #Yapay Zeka
- #İşlev Çağrısı (Function Call)
- #LLM
- #Çoklu Aracı (Multi-Agent)
Oluşturulma: 2025-03-04
Oluşturulma: 2025-03-04 21:53
Son zamanlarda sektörde en popüler terim, LLM (Büyük Dil Modeli).
Claude 3.5, Grok3 gibi modeller sürekli ortaya çıkıyor ve
뤼튼 (Rütten) veya 제타 (Zeta) gibi LLM'yi kullanan hizmetler de artıyor.
Geliştirici olarak, bir gün bizim hizmetimize de LLM ekleyeceğiz,
o zaman şaşırmamak için temel kavramları önceden öğrenmek iyi olmaz mı diye düşünüyorum!
Bu yüzden temel kelimeleri bir kez daha özetledim.
LLM (Large Language Model), basitçe söylemek gerekirse
"metin girdisi alıp, anlayıp metin olarak yanıt veren bir AI".
GPT-4o, Claude 3, Grok3 gibi modeller bunun en iyi örnekleridir.
Günümüzde LLM'ler sadece cümle oluşturmanın ötesinde
kodlama, resim analizi, denklem çözme gibi çeşitli görevleri yerine getiriyor.
Artık geliştiricilerin AI'yı bir araç gibi kullandığı bir çağda olduğumuzu düşünüyorum.
LLM sadece yanıt vermekle kalmıyor,
"gerekli araçları çağırıp işimi yapmama yardım et!" diye de talepte bulunabiliyoruz.
Örneğin,
Ancak LLM doğrudan API'yi çağırmaz,
gerçek çağırmayı biz kodla yapmalıyız ㅜㅜ
LLM ne kadar zeki olursa olsun,
zaten öğrenilmiş verileri kullanarak yanıt oluşturur.
Peki en son haberleri veya şirket içi belgeleri nasıl alıyor?
İşte burada RAG devreye giriyor.
Böylece LLM en son bilgileri de yansıtabilir.
Yani, LLM yanıtlamadan önce, öncelikle yanıta ihtiyaç duyulan verileri ekler ve özetler veya bunlara dayanarak yanıt verir.
Bütün bunlaraRAGdenir.
LLM modellerine baktığımızda 8B, 70B gibi sayılar görürüz.
Bumodelin eğitimi sırasında kullanılan parametre (Parameter) sayısınıgösterir.
Büyük modeller daha hassas olsa da, hız ve maliyet açısından sorun olabilir.
Günümüzdehafif modellerikullanmak trend.
Ağır modellerin yanıt süresi yavaş olduğu için
son kullanıcıların ayrılma oranı artıyor.
LLM her şeyi tek başına yapmıyor,
birkaç küçük AI (ajan) iş birliği yaparak çalışıyor.
Örneğin:
Görevleri böylece paylaşarakhem hız artıyor hem de daha doğru yanıtlar alınabiliyor.
Tıpkı bir şirket gibi değil mi? Kimisi ön uçta, kimisi arka uçta çalışıyor...
LLM her zaman doğruyu söylemez.
Yanlış yanıtlar da verebilir.
Bu yüzdenDoğrulama Geri Bildirimigereklidir.
Bunu otomatikleştirerekLLM'nin kendi kendine öğrenen bir sistemoluşturulabilir.
Veya Function Call veya yanıt formatı belirlendiğinde
formata uymuyorsa, formata uyması zorunlu kılınabilir.
OpenAI'nin GPT-4o'sunda Function Call kullanmak için
aşağıdaki gibi uygulanabilir.
🔹 TypeScript Örneği
Function Call bu şekilde kullanılırsa,
LLM sadece metin oluşturmakla kalmaz,
gerçek işlevleri yerine getiren **"gerçekten kullanışlı bir AI"** haline gelir.
Bu Function Call'larda parametre değerlerini ayrıntılı olarak doldurmak çok zahmetli olabilir.
Bu yüzden Vercel ai veya LangChain gibi araçlar, zod adlı kütüphane ile
LLM tarafından döndürülen parametre değerlerinin doğruluğunu, Doğrulama Geri Bildirimi ile kontrol eder.
Böylece yüksek doğrulukta Function Call gerçekleştirilir.
Ancak, karmaşık fonksiyonların parametre değerlerini tek tek zod ile şema olarak yazmak çok zahmetli olabilir ve
geliştiriciler bunu"sıkıcı"bulabilirler.
Bu nedenle benAgenticakütüphanesini öneriyorum.
Yukarıdaki basit kod ile üç sınıfın fonksiyonları ve swagger'ın uç noktaları
Function Call olarak atanmış ve konuşma sırasında otomatik olarak çağrılacak şekilde ayarlanmıştır..
Böylece basit bir"sohbet robotu ajanı"oluşturulmuştur.
LLM ve AI'yı kullanan alanlar giderek daha kolay hale geliyor.
Teknolojinin gelişimi gerçekten korkutucu.
Yorumlar0