Sunrabbit

LLM สำหรับเด็กประถม

สร้าง: 2025-03-04

สร้าง: 2025-03-04 21:53

ปัจจุบัน คำสำคัญที่ร้อนแรงที่สุดในอุตสาหกรรมก็คือ LLM นั่นเอง
มีการเปิดตัวโมเดลอย่างต่อเนื่อง เช่น Claude 3.5, Grok3
และบริการต่างๆ ที่ใช้ LLM ก็เพิ่มมากขึ้นเช่นกัน เช่น 뤼튼 (Ruiton) และ 제타 (Zeta)

ในฐานะนักพัฒนาซอฟต์แวร์ สักวันเราคงต้องนำ LLM มาใช้กับบริการของเราด้วยเช่นกัน
เพื่อไม่ให้ตกใจเมื่อถึงเวลานั้น เราควรทำความเข้าใจพื้นฐานไว้ก่อนล่วงหน้าจะดีกว่านะ!
ดังนั้น ผมจึงรวบรวมคำสำคัญหลักๆ มาให้ดูกัน


LLM

LLM (Large Language Model) พูดให้เข้าใจง่ายๆ ก็คือ
"AI ที่เข้าใจข้อความที่ป้อนเข้าไป แล้วตอบกลับมาเป็นข้อความ"
ตัวอย่างเช่น โมเดลอย่าง GPT-4o, Claude 3, Grok3

ปัจจุบัน LLM ไม่ได้แค่สร้างประโยคอย่างเดียวอีกต่อไปแล้ว
แต่สามารถทำงานได้หลากหลาย เช่น การเขียนโค้ด การวิเคราะห์ภาพ การแก้สมการ
ผมว่าตอนนี้มาถึงยุคที่นักพัฒนาใช้ AI เป็นเครื่องมือแล้วล่ะ

Tool Call, Function Call

LLM ไม่ได้แค่ตอบคำถามอย่างเดียว
"สามารถขอให้เรียกใช้เครื่องมือที่จำเป็นเพื่อช่วยทำงานได้"

ตัวอย่างเช่น

  • ถ้าผู้ใช้บอกว่า "ช่วยคำนวณตัวเลขนี้หน่อย"
  • LLM จะขอให้เรียกใช้ API ของเครื่องคิดเลข
  • แล้วส่งผลลัพธ์กลับไปให้ผู้ใช้

แต่ LLM ไม่ได้เรียกใช้ API โดยตรงนะ
เราต้องเขียนโค้ดเพื่อเรียกใช้เอง ㅜㅜ


RAG (Retrieval-Augmented Generation)

ไม่ว่า LLM จะฉลาดแค่ไหน
มันก็สร้างคำตอบได้จากข้อมูลที่เรียนรู้มาเท่านั้น
แล้วจะเรียกใช้ข้อมูลอย่างข่าวล่าสุดหรือเอกสารภายในบริษัทได้ยังไงล่ะ?

ตอนนั้นแหละที่ต้องใช้ RAG นี่แหละ

  • ค้นหาข้อมูลที่ต้องการจากฐานข้อมูลภายนอกก่อน (Retrieval)
  • แล้วใช้ข้อมูลนั้นสร้างคำตอบ (Generation)

แบบนี้ LLM ก็สามารถใช้ข้อมูลล่าสุดได้แล้ว

กล่าวคือ ก่อนที่ LLM จะตอบคำถาม จะมีการป้อนข้อมูลที่จำเป็นสำหรับการตอบคำถามก่อน แล้วสรุปหรือใช้ข้อมูลนั้นเป็นพื้นฐานในการตอบคำถาม
ทั้งหมดนี้เรียกว่า RAG นั่นเอง

4B, 8B, 308B? ตัวเลขเหล่านี้คืออะไร?

ถ้าดูโมเดล LLM จะเห็นตัวเลขอย่าง 8B, 70B ติดอยู่
นี่คือ จำนวนพารามิเตอร์ (Parameter) ที่โมเดลเรียนรู้มา นั่นเอง

  • 8B (8 พันล้านตัว) → โมเดลเบา เร็ว
  • 308B (308 พันล้านตัว) → โมเดลใหญ่ แต่ช้า

ยิ่งโมเดลใหญ่ ยิ่งแม่นยำ แต่ก็อาจจะใช้เวลาและค่าใช้จ่ายมาก
ปัจจุบันนี้ โมเดลขนาดเล็ก กำลังเป็นที่นิยม

เพราะโมเดลใหญ่จะทำให้ความเร็วในการตอบสนองช้าลง
ส่งผลให้ผู้ใช้เลิกใช้บริการไป

มัลติเอเจนต์ (Multi-Agent)

LLM ไม่ได้ทำงานทุกอย่างคนเดียว
แต่ใช้ AI หลายตัว (เอเจนต์) ร่วมมือกันทำงาน

เช่น

  • ตัวหนึ่งรับผิดชอบการเขียนโค้ด
  • ตัวหนึ่งวิเคราะห์ข้อมูล
  • ตัวหนึ่งจัดการเอกสาร

การแบ่งงานแบบนี้จะทำให้ เร็วขึ้นและตอบคำถามได้แม่นยำขึ้น เหมือนบริษัทเลยใช่ไหม? มีคนทำฝั่ง front-end ... มีคนทำฝั่ง back-end ...
เป็นต้น

Validation Feedback (ฟีดแบ็กการตรวจสอบ)

LLM ไม่ได้ตอบถูกเสมอไป
อาจจะตอบผิดบ้าง

ดังนั้นจึงจำเป็นต้องมี Validation Feedback นี่แหละ

  • ถ้าผู้ใช้ให้ฟีดแบ็กว่าคำตอบของ LLM ถูกหรือผิด
  • โมเดลก็จะฉลาดขึ้นเรื่อยๆ

สามารถทำให้เป็นระบบอัตโนมัติได้ด้วยนะเพื่อให้ LLM เรียนรู้ด้วยตัวเอง นั่นเอง

หรือในกรณีที่ใช้ Function Call หรือรูปแบบการตอบกลับที่กำหนดไว้
สามารถบังคับให้ปฏิบัติตามรูปแบบได้

วิธีใช้ Function Call ใน OpenAI

ถ้าจะใช้ Function Call กับ GPT-4o ของ OpenAI จริงๆ
สามารถเขียนโค้ดได้ดังนี้

🔹 ตัวอย่าง TypeScript

การใช้ Function Call แบบนี้จะทำให้
LLM ไม่ได้แค่สร้างข้อความอย่างเดียว
แต่สามารถทำงานจริงได้ด้วย ทำให้เป็น **AI ที่มีประโยชน์จริงๆ**


Agentica

การกรอกค่าพารามิเตอร์ลงใน FunctionCall อย่างละเอียด อาจจะยุ่งยากมาก
ดังนั้น Vercel ai และ LangChain จึงใช้ไลบรารี่ zod
เพื่อตรวจสอบว่าค่าพารามิเตอร์ที่ LLM ส่งกลับมานั้นถูกต้องหรือไม่ ทำการ Validation Feedback

ซึ่งจะทำให้การเรียกใช้ Function Call แม่นยำมากขึ้น

แต่การเขียนสกีมาด้วย zod สำหรับค่าพารามิเตอร์ของฟังก์ชันที่ซับซ้อนนั้นยุ่งยากมาก
นักพัฒนาอาจจะรู้สึกว่า"ยุ่งยาก" นั่นเอง

ดังนั้นผมจึงขอแนะนำไลบรารี่ Agentica ดูนะครับ

ด้วยโค้ดสั้นๆ นี้ สามารถกำหนดฟังก์ชันในสามคลาสและ endpoint ของ swagger
เป็น Function Call และตั้งค่าให้เรียกใช้โดยอัตโนมัติในระหว่างการสนทนา

ซึ่งจะสร้าง "เอเจนต์แชทบอท" ขึ้นมา


การใช้งาน LLM และ AI กำลังง่ายขึ้นเรื่อยๆ
น่ากลัวจริงๆ ว่าเทคโนโลยีจะพัฒนาไปถึงไหน

ความคิดเห็น0

LLM (แบบจำลองภาษาขนาดใหญ่) คืออะไร?LLM ย่อมาจากแบบจำลองภาษาขนาดใหญ่ ซึ่งเป็นเทคโนโลยีปัญญาประดิษฐ์ที่เรียนรู้จากข้อมูลข้อความจำนวนมหาศาล เพื่อทำความเข้าใจและสร้างภาษาที่คล้ายคลึงกับมนุษย์
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

April 1, 2024

สร้าง AI Full Stack ด้วยโอเพนซอร์สบทความนี้จะแนะนำเครื่องมือต่างๆ สำหรับสร้าง AI 풀สแตก (Full Stack) ด้วยโอเพนซอร์ส รวมถึง LLM, เครื่องมืออนุมานและให้บริการ, เฟรมเวิร์ก และโซลูชันการตรวจสอบต่างๆ เรียนรู้การพัฒนาแอปพลิเคชัน AI โดยใช้ LangChain, LlamaIndex และอื่นๆ
RevFactory
RevFactory
RevFactory
RevFactory

February 5, 2024

AI หลายภาษาฟรี - เอไอดอท (A.) เวอร์ชันพีซี - ใช้โมเดล AI หลากหลายได้ในที่เดียวเอไอดอท เวอร์ชันพีซีจาก SK Telecom เปิดตัวแล้ว บริการตัวแทน LLM หลายภาษาที่สามารถใช้งานและเปรียบเทียบโมเดล AI ต่างๆ ได้ฟรี
Curator Danbi - Creator Story
Curator Danbi - Creator Story
Curator Danbi - Creator Story
Curator Danbi - Creator Story

November 26, 2024

พลังของเครื่องจักรที่ตีความภาษาของมนุษย์: ปัญญาประดิษฐ์และการประมวลผลภาษาธรรมชาติบทความวิเคราะห์เชิงลึกเกี่ยวกับหลักการ เทคนิคการใช้งาน ปัญหาทางจริยธรรม และการคาดการณ์ในอนาคตของเทคโนโลยีปัญญาประดิษฐ์และการประมวลผลภาษาธรรมชาติ รวมถึงตัวอย่างการประยุกต์ใช้งานที่หลากหลาย เช่น แชทบอท การแปลภาษา และคู่มือการใช้งานสำหรับนักพัฒนา
Cherry Bee
Cherry Bee
Cherry Bee
Cherry Bee

March 25, 2025

SK C&C เปิดตัวแพลตฟอร์ม ‘โซลูเออร์ LLMOps’ สนับสนุนการสร้างแบบจำลองภาษาขนาดเล็ก (sLLM) ที่ปรับแต่งเองได้สำหรับลูกค้าSK C&C เปิดตัวแพลตฟอร์ม ‘โซลูเออร์ LLMOps’ สำหรับการสร้างแบบจำลองภาษาขนาดเล็ก (sLLM) ที่ปรับแต่งเองได้สำหรับองค์กรต่างๆ โดยใช้ประโยชน์จากแบบจำลองพื้นฐานที่หลากหลายและการประยุกต์ใช้ไฮเปอร์ออโตเมชั่น เพื่อเพิ่มประสิทธิภาพ
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

May 20, 2024