Subjek
- #RAG
- #LLM
- #AI
- #Multi-Agent
- #Function Call
Dibuat: 2025-03-04
Dibuat: 2025-03-04 21:53
Saat ini, kata kunci terpanas di industri adalah LLM.
Model-model seperti Claude 3.5, Grok3 terus bermunculan,
dan layanan yang memanfaatkan LLM, seperti Rytton dan Zeta, juga semakin meningkat.
Sebagai pengembang, suatu saat nanti kita pasti akan mengintegrasikan LLM ke dalam layanan kita,
jadi sebaiknya kita memahami konsep dasarnya terlebih dahulu agar tidak kebingungan saat itu tiba!
Oleh karena itu, saya telah merangkum beberapa kata kunci penting.
LLM (Large Language Model) secara sederhana dapat diartikan sebagai
"AI yang dapat memahami teks yang dimasukkan dan memberikan jawaban berupa teks".
Model-model seperti GPT-4o, Claude 3, Grok3 adalah contohnya.
Saat ini, LLM tidak hanya sekadar menghasilkan kalimat, tetapi juga
dapat melakukan berbagai tugas seperti pengkodean, analisis gambar, dan penyelesaian persamaan matematika.
Saya rasa kita sekarang berada di era di mana pengembang dapat menggunakan AI sebagai alat.
LLM tidak hanya memberikan jawaban, tetapi juga
"dapat diminta untuk memanggil alat yang dibutuhkan untuk membantu menyelesaikan tugas".
Contohnya,
Namun, LLM sendiri tidak memanggil API secara langsung,
kita harus mengimplementasikan pemanggilan tersebut melalui kode ㅜㅜ
Sekalipun LLM sangat cerdas,
ia hanya dapat menghasilkan jawaban berdasarkan data yang telah dipelajarinya.
Lalu bagaimana cara mengambil informasi seperti berita terbaru atau dokumen internal?
Saat itulah kita membutuhkan RAG.
Dengan cara ini, LLM dapat menyertakan informasi terbaru.
Singkatnya, sebelum LLM menjawab, kita terlebih dahulu memasukkan data yang dibutuhkan untuk menjawab, dan merangkum atau menggunakannya sebagai dasar jawaban,
semuanya disebut RAG.
Pada model LLM, sering kita temukan angka seperti 8B, 70B.
Angka tersebut menunjukkan jumlah parameter (Parameter) yang dipelajari oleh model.
Model yang besar lebih akurat, tetapi kecepatan dan biaya dapat menjadi kendala.
Saat ini, trennya adalah penggunaan model ringan.
Model yang berat akan memperlambat kecepatan respons,
sehingga meningkatkan tingkat pengabaian pengguna.
LLM tidak selalu menangani semuanya sendiri,
tetapi dapat bekerja sama dengan beberapa AI kecil (agen).
Contohnya:
Dengan pembagian tugas seperti ini,jawaban menjadi lebih cepat dan akurat.
Seperti sebuah perusahaan, bukan? Ada yang menangani front-end... ada yang menangani back-end...
LLM tidak selalu memberikan jawaban yang benar.
Ia juga dapat memberikan jawaban yang salah.
Oleh karena itu, dibutuhkan Validation Feedback.
Hal ini dapat diotomatisasi untuk membuatsistem pembelajaran mandiri LLM.
Atau ketika Function Call atau format respons telah ditentukan,
kita dapat memaksa untuk mengikuti format tersebut jika tidak sesuai.
Untuk menggunakan Function Call dengan GPT-4o dari OpenAI,
kita dapat mengimplementasikannya seperti di bawah ini.
🔹 Contoh TypeScript
Dengan menggunakan Function Call seperti ini,
LLM tidak hanya menghasilkan teks sederhana,
tetapi juga dapat menjalankan fungsi sebenarnya, menjadi **\"AI yang benar-benar berguna\"**.
Pengisian nilai parameter pada Function Call secara detail bisa sangat merepotkan.
Oleh karena itu, Vercel ai dan LangChain menggunakan library bernama zod untuk
melakukan Validation Feedback terhadap nilai parameter yang dikembalikan LLM.
Dengan demikian, Function Call yang akurat dapat dilakukan.
Namun, menulis skema untuk setiap parameter fungsi yang kompleks menggunakan zod sangat merepotkan,
dan pengembang mungkin merasa \"lelah\" dalam proses ini.
Oleh karena itu, saya merekomendasikan library bernama Agentica.
Hanya dengan kode sederhana di atas, fungsi-fungsi di tiga kelas dan endpoint swagger dapat
ditetapkan sebagai Function Call, dan secara otomatis dipanggil saat percakapan.
Dengan demikian, \"agen chatbot\" sederhana telah dibuat.
Dengan demikian, bidang yang berkaitan dengan LLM dan AI menjadi semakin mudah.
Perkembangan teknologi ini sungguh menakjubkan.
Komentar0