Chủ đề
- #Function Call
- #AI
- #Multi-Agent
- #RAG
- #LLM
Đã viết: 2025-03-04
Đã viết: 2025-03-04 21:53
Từ khóa nóng nhất trong ngành hiện nay chính là LLM.
Các mô hình như Claude 3.5, Grok3 liên tục ra mắt,
và các dịch vụ sử dụng LLM như뤼튼 (Rutton) hay 제타 (Zeta) cũng ngày càng nhiều.
Với tư cách là nhà phát triển, chắc chắn rồi chúng ta cũng sẽ tích hợp LLM vào dịch vụ của mình,
vậy nên để không bị bỡ ngỡ, tốt hơn hết là nên nắm vững các khái niệm cơ bản trước!
Vì vậy, tôi đã tổng hợp lại các từ khóa chính.
LLM (Large Language Model) nói một cách đơn giản là
"AI hiểu và trả lời bằng văn bản khi được đưa vào văn bản".
Các mô hình như GPT-4o, Claude 3, Grok3 là những ví dụ tiêu biểu.
Hiện nay, LLM không chỉ đơn thuần tạo văn bản mà còn
có thể thực hiện nhiều tác vụ khác nhau như lập trình, phân tích hình ảnh, giải toán...
Có lẽ giờ đây đã là thời đại mà các nhà phát triển sử dụng AI như một công cụ rồi.
LLM không chỉ đơn thuần trả lời mà còn
"có thể được yêu cầu gọi các công cụ cần thiết để hỗ trợ công việc".
Ví dụ:
Tuy nhiên, LLM không trực tiếp gọi API,
mà việc gọi thực tế phải do chúng ta thực hiện bằng code ㅜㅜ
Cho dù LLM có thông minh đến đâu,
nó chỉ có thể tạo câu trả lời dựa trên dữ liệu đã được đào tạo.
Vậy làm thế nào để gọi các thông tin như tin tức mới nhất hoặc tài liệu nội bộ?
Lúc này cần đến RAG.
Nhờ vậy, LLM có thể phản ánh cả thông tin mới nhất.
Tức là, trước khi LLM trả lời, chúng ta sẽ đưa vào các tài liệu cần thiết để trả lời, và việc tóm tắt hoặc trả lời dựa trên đó
đều được gọi là RAG.
Khi nhìn vào các mô hình LLM, ta thường thấy các con số như 8B, 70B.
Điều này có nghĩa là số lượng tham số (Parameter) mà mô hình đã được đào tạo.
Mô hình càng lớn thì càng chính xác, nhưng chi phí và tốc độ có thể là vấn đề.
Xu hướng hiện nay là sử dụng tốt các mô hình nhẹ.
Mô hình càng nặng thì tốc độ trả lời càng chậm,
dẫn đến tỷ lệ người dùng rời bỏ cao.
LLM không tự xử lý mọi thứ một mình,
mà sử dụng nhiều AI nhỏ (đại lý) hợp tác với nhau.
Ví dụ:
Việc phân chia nhiệm vụ như vậy giúp tăng tốc độ và độ chính xác của câu trả lời.
Giống như một công ty phải không? Có người làm front-end, có người làm back-end...
LLM không phải lúc nào cũng trả lời đúng.
Nó cũng có thể đưa ra câu trả lời sai.
Vì vậy, cần có Validation Feedback.
Việc tự động hóa điều này có thể tạo ra hệ thống tự học của LLM.
Hoặc khi Function Call hoặc định dạng trả lời được xác định,
có thể buộc phải tuân thủ định dạng nếu không tuân thủ.
Để sử dụng Function Call với GPT-4o của OpenAI,
có thể thực hiện như sau.
🔹 Ví dụ về TypeScript
Bằng cách sử dụng Function Call như vậy,
LLM không chỉ tạo văn bản đơn giản mà còn
có thể thực hiện các chức năng thực tế, trở thành **\"AI thực sự hữu ích\"**.
Việc điền đầy đủ các tham số cho Function Call có thể rất tốn thời gian.
Vì vậy, các thư viện như Vercel ai hay LangChain sử dụng thư viện zod để
thực hiện Validation Feedback, kiểm tra xem các tham số mà LLM trả về có chính xác hay không.
Điều đó giúp thực hiện Function Call với độ chính xác cao.
Tuy nhiên, việc viết từng schema bằng zod cho các tham số phức tạp của hàm lại rất tốn thời gian và
các nhà phát triển có thể cảm thấy \"mệt mỏi\".
Vì vậy, tôi muốn giới thiệu thư viện Agentica.
Chỉ với đoạn code đơn giản này, các hàm trong ba lớp và các endpoint của swagger đã được
định nghĩa là Function Call và tự động được gọi trong quá trình hội thoại.
Như vậy, một \"đại lý chatbot\" đơn giản đã được tạo ra.
Như vậy, lĩnh vực xử lý LLM và AI ngày càng trở nên dễ dàng hơn.
Sự phát triển của công nghệ thật đáng sợ.
Bình luận0