Made in RAG (Hệ thống Q&A LLM cục bộ) với Docker + ollama + R2R
Xây dựng hệ thống Q&A dựa trên Local LLM với RAG chỉ trong 2 giờ thực hành bằng cách sử dụng Docker + ollama + R2R framework. (Có thể ứng dụng làm hệ thống Q&A nội bộ, portfolio cá nhân, nâng cao năng lực làm việc bằng AI, cho đến các dịch vụ thương mại)
Docker
Docker
AI
AI
wsl
wsl
LLM
LLM
Muốn biết những câu hỏi thường được học viên khác hỏi không?

