Triển khai AWS để ứng dụng ngay vào thực tế
Chúng tôi đã chuẩn bị điều này cho những ai muốn triển khai/vận hành dịch vụ trên AWS. Từ thiết lập miền đến Docker và serverless!
128 học viên
Độ khó Cơ bản
Thời gian Không giới hạn
Bài giảng RAG đã được phát hành!
Xin chào, đây là Kang Byeong-jin.
Chúng tôi đã phát hành khóa học về cách xây dựng RAG bằng Mô hình ngôn ngữ lớn (LLM) phổ biến gần đây.
Ngày nay, đó là công việc chính của tôi ở nơi làm việc và tôi đã gặp rất nhiều rắc rối với nó kể từ năm ngoái... vì vậy tôi đã chuẩn bị bài giảng với hy vọng người khác sẽ bớt gặp rắc rối hơn.
Bài giảng sử dụng OpenAI API và LangChain nên bạn có thể dễ dàng theo dõi bằng cách sử dụng các gói được sử dụng trong LangChain như Claude, Cohere, Upstage, v.v. Nếu xem nội dung bài giảng, bạn chỉ có thể sử dụng ChatAnthropic , ChatCohere , ChatUpstage v.v. cho những phần tương ứng với llm trong LCEL, còn những ai muốn sử dụng Ollama và Llama3 thì có thể sử dụng ChatOllama .
Nếu bạn cần một bài giảng bằng Ollama hoặc có bất cứ điều gì muốn biết thêm về LLM, vui lòng để lại nhận xét về bài giảng hoặc câu hỏi về bài giảng hoặc gửi tin nhắn đến jasonkang14@gmail.com . Nó sẽ rất hữu ích trong việc chuẩn bị cho bài giảng tiếp theo!


