Sunrabbit

LLM untuk Siswa Sekolah Dasar

  • Bahasa Penulisan: Bahasa Korea
  • Negara Standar: Semua Negaracountry-flag
  • TI

Dibuat: 2025-03-04

Dibuat: 2025-03-04 21:53

Saat ini, kata kunci terpanas di industri adalah LLM.
Model-model seperti Claude 3.5, Grok3 terus bermunculan,
dan layanan yang memanfaatkan LLM, seperti Rytton dan Zeta, juga semakin meningkat.

Sebagai pengembang, suatu saat nanti kita pasti akan mengintegrasikan LLM ke dalam layanan kita,
jadi sebaiknya kita memahami konsep dasarnya terlebih dahulu agar tidak kebingungan saat itu tiba!
Oleh karena itu, saya telah merangkum beberapa kata kunci penting.


LLM

LLM (Large Language Model) secara sederhana dapat diartikan sebagai
"AI yang dapat memahami teks yang dimasukkan dan memberikan jawaban berupa teks".
Model-model seperti GPT-4o, Claude 3, Grok3 adalah contohnya.

Saat ini, LLM tidak hanya sekadar menghasilkan kalimat, tetapi juga
dapat melakukan berbagai tugas seperti pengkodean, analisis gambar, dan penyelesaian persamaan matematika.
Saya rasa kita sekarang berada di era di mana pengembang dapat menggunakan AI sebagai alat.

Tool Call, Function Call

LLM tidak hanya memberikan jawaban, tetapi juga
"dapat diminta untuk memanggil alat yang dibutuhkan untuk membantu menyelesaikan tugas".

Contohnya,

  • Jika pengguna meminta "Hitung angka ini",
  • LLM akan meminta untuk memanggil API kalkulator,
  • dan hasil perhitungan akan dikirim kembali ke pengguna.

Namun, LLM sendiri tidak memanggil API secara langsung,
kita harus mengimplementasikan pemanggilan tersebut melalui kode ㅜㅜ


RAG (Retrieval-Augmented Generation)

Sekalipun LLM sangat cerdas,
ia hanya dapat menghasilkan jawaban berdasarkan data yang telah dipelajarinya.
Lalu bagaimana cara mengambil informasi seperti berita terbaru atau dokumen internal?

Saat itulah kita membutuhkan RAG.

  • Informasi yang dibutuhkan terlebih dahulu dicari (Retrieval) dari basis data eksternal,
  • kemudian jawaban dihasilkan (Generation) berdasarkan informasi tersebut.

Dengan cara ini, LLM dapat menyertakan informasi terbaru.

Singkatnya, sebelum LLM menjawab, kita terlebih dahulu memasukkan data yang dibutuhkan untuk menjawab, dan merangkum atau menggunakannya sebagai dasar jawaban,
semuanya disebut RAG.

4B, 8B, 308B? Apa arti angka-angka tersebut?

Pada model LLM, sering kita temukan angka seperti 8B, 70B.
Angka tersebut menunjukkan jumlah parameter (Parameter) yang dipelajari oleh model.

  • 8B (8 miliar) → model ringan, cepat
  • 308B (308 miliar) → model sangat besar, tetapi lambat

Model yang besar lebih akurat, tetapi kecepatan dan biaya dapat menjadi kendala.
Saat ini, trennya adalah penggunaan model ringan.

Model yang berat akan memperlambat kecepatan respons,
sehingga meningkatkan tingkat pengabaian pengguna.

Multi-Agent (Agen Ganda)

LLM tidak selalu menangani semuanya sendiri,
tetapi dapat bekerja sama dengan beberapa AI kecil (agen).

Contohnya:

  • Satu agen menangani pengkodean,
  • satu agen menangani analisis data,
  • dan satu agen menangani pengorganisasian dokumen.

Dengan pembagian tugas seperti ini,jawaban menjadi lebih cepat dan akurat.
Seperti sebuah perusahaan, bukan? Ada yang menangani front-end... ada yang menangani back-end...

Validation Feedback (Umpan Balik Validasi)

LLM tidak selalu memberikan jawaban yang benar.
Ia juga dapat memberikan jawaban yang salah.

Oleh karena itu, dibutuhkan Validation Feedback.

  • Jika pengguna memberikan umpan balik apakah jawaban LLM benar atau salah,
  • model akan menjadi lebih cerdas.

Hal ini dapat diotomatisasi untuk membuatsistem pembelajaran mandiri LLM.

Atau ketika Function Call atau format respons telah ditentukan,
kita dapat memaksa untuk mengikuti format tersebut jika tidak sesuai.

Cara Menggunakan Function Call di OpenAI

Untuk menggunakan Function Call dengan GPT-4o dari OpenAI,
kita dapat mengimplementasikannya seperti di bawah ini.

🔹 Contoh TypeScript

Dengan menggunakan Function Call seperti ini,
LLM tidak hanya menghasilkan teks sederhana,
tetapi juga dapat menjalankan fungsi sebenarnya, menjadi **\"AI yang benar-benar berguna\"**.


Agentica

Pengisian nilai parameter pada Function Call secara detail bisa sangat merepotkan.
Oleh karena itu, Vercel ai dan LangChain menggunakan library bernama zod untuk
melakukan Validation Feedback terhadap nilai parameter yang dikembalikan LLM.

Dengan demikian, Function Call yang akurat dapat dilakukan.

Namun, menulis skema untuk setiap parameter fungsi yang kompleks menggunakan zod sangat merepotkan,
dan pengembang mungkin merasa \"lelah\" dalam proses ini.

Oleh karena itu, saya merekomendasikan library bernama Agentica.

Hanya dengan kode sederhana di atas, fungsi-fungsi di tiga kelas dan endpoint swagger dapat
ditetapkan sebagai Function Call, dan secara otomatis dipanggil saat percakapan.

Dengan demikian, \"agen chatbot\" sederhana telah dibuat.


Dengan demikian, bidang yang berkaitan dengan LLM dan AI menjadi semakin mudah.
Perkembangan teknologi ini sungguh menakjubkan.

Komentar0