Inflearn brand logo image
Inflearn brand logo image
Inflearn brand logo image
AI Development

/

AI Agent Development

Kỹ thuật quản lý tải nhận thức vượt giới hạn hiệu suất RAG

Khi xây dựng hệ thống RAG (Retrieval-Augmented Generation: Tạo sinh tăng cường truy xuất) dựa trên AI tạo sinh hoặc LLM mà không đạt được hiệu suất mong muốn và không có giải pháp thích hợp, thì phải làm sao? Khóa học này sẽ trình bày các phương pháp cải thiện hiệu suất RAG dựa trên lý thuyết Cognitive Load (Tải trọng nhận thức). Thông qua khóa học này, bạn có thể hiểu được giới hạn của cửa sổ ngữ cảnh LLM và cách quản lý Cognitive Load một cách hiệu quả trong hệ thống RAG. Đây là một khóa học lý thuyết cấp độ thực tiễn, bao gồm các chủ đề như kích thước và thiết kế cấu trúc Chunk, kỹ thuật tạo Chunk chất lượng cao, tối ưu hóa động, đánh giá hiệu suất và các kỹ thuật thực chiến.

(5.0) 1 đánh giá

9 học viên

  • arigaram
컨텍스트창관리
chunk전략설계
rag시스템구축
llm성능평가및튜닝
동적최적화
AI
ChatGPT
LLM
RAG
Generative AI

Dịch cái này sang tiếng Việt

  • Chiến lược hiểu và quản lý giới hạn của cửa sổ ngữ cảnh và token trong LLM

  • Cách tạo Chunk chất lượng cao và cách tích hợp vào pipeline RAG

🔥Công nghệ RAG vượt qua giới hạn của LLM, công nghệ quản lý tải nhận thức sẽ vượt qua giới hạn của công nghệ RAG

  • Việc tạo ra các dịch vụ trí tuệ nhân tạo dựa trên mô hình ngôn ngữ lớn (LLM) đã trở thành xu hướng chủ đạo, nhưng vẫn tồn tại những hạn chế do kích thước cửa sổ ngữ cảnh và số lượng token bị giới hạn. Đặc biệt trong hệ thống RAG (Retrieval-Augmented Generation: Sinh tăng cường tìm kiếm), nếu không quản lý tài liệu hoặc các chunk (Chunks: đoạn văn bản của tài liệu) một cách phù hợp, sẽ phát sinh tải nhận thức ở phía LLM, khiến việc tạo ra câu trả lời tối ưu trở nên khó khăn.

  • Tải nhận thức(cognitive load) là mức độ khó khăn trong việc nhận biết thông tin tùy thuộc vào lượng thông tin và độ phức tạp mà hệ thống (bao gồm não bộ con người và trí tuệ nhân tạo) phải xử lý. Khi tải nhận thức trong hệ thống LLM tăng cao, thông tin có thể tích tụ quá mức làm mờ đi trọng tâm, hiệu suất giảm sút và có thể không đạt được mức độ phản hồi mong đợi. Do đó, quản lý tải nhận thức hiệu quả là yếu tố cốt lõi quyết định chất lượng và tính ổn định của hệ thống dựa trên LLM.

🔍Giới thiệu khóa học

Trong khóa học này, dựa trên khái niệm về giới hạn cửa sổ ngữ cảnh của LLM và tải nhận thức, chúng tôi sẽ trình bày phương pháp luận từng bước có thể áp dụng ngay vào thực tế, từ thiết kế chunk đến tạo chunk chất lượng cao, tích hợp pipeline RAG, tối ưu hóa động và đánh giá hiệu suất. Thông qua điều này, chúng tôi kỳ vọng có thể giải quyết đáng kể vấn đề suy giảm chất lượng phản hồi mà các kỹ thuật tăng cường RAG khác nhau hiện có không thể giải quyết được.

🎯Nội dung có thể học được từ khóa học này

  • Chiến lược quản lý tải nhận thức theo cửa sổ ngữ cảnh và giới hạn token của LLM

  • Phương pháp tạo chunk chất lượng cao và các phương án sử dụng kỹ thuật chunking đa dạng

  • Công nghệ tích hợp tiền xử lý dữ liệu, tìm kiếm, thiết kế prompt và hậu xử lý để xây dựng hệ thống RAG

  • Điều chỉnh kích thước chunk thời gian thực và điều chỉnh tham số tóm tắt thông qua tối ưu hóa động

  • Phương án áp dụng chỉ số đánh giá hiệu suất và viết báo cáo kết quả

Khái niệm quan trọng

인공지능(AI), ChatGPT, LLM, RAG, AI 활용 (AX)

📚Giới thiệu từng phần

Phần 1. Giới thiệu khóa học và các khái niệm cơ bản

Trong phần đầu tiên, chúng ta sẽ làm rõ tổng quan và mục tiêu của khóa học này, đồng thời đề cập đến các khái niệm cơ bản về cửa sổ ngữ cảnh của LLM và quản lý tải nhận thức. Đặc biệt, chúng ta sẽ hiểu chi tiết tải nhận thức là gì, tại sao nó lại quan trọng trong môi trường LLM, và học về những kiến thức nền tảng của RAG. Dựa trên lý thuyết, chúng ta sẽ điểm qua các chủ đề cốt lõi sẽ được đề cập trong khóa học và giúp định hướng học tập. Các khái niệm sẽ được giải thích từng bước một cách dễ hiểu để người mới bắt đầu cũng có thể theo kịp, từ đó tạo nền tảng vững chắc để có thể chuyển tiếp tự nhiên sang các chủ đề nâng cao sau này.

Phần 2. Cửa sổ ngữ cảnh và giới hạn token

Trong phần này, chúng ta sẽ phân tích sâu về cửa sổ ngữ cảnh và cơ chế token hóa của LLM. Chúng ta sẽ tìm hiểu chi tiết token là gì, cách chúng được phân chia và ảnh hưởng như thế nào đến đầu vào của mô hình, đồng thời giải thích với nhiều ví dụ khác nhau về cách giới hạn kích thước cửa sổ ngữ cảnh ảnh hưởng đến hiệu suất của mô hình. Ngoài ra, chúng ta sẽ học cách tính toán chi phí theo token để có thể áp dụng trong thiết kế hệ thống thực tế, phát triển khả năng thực tiễn. Thông qua quá trình này, dựa trên hiểu biết có hệ thống về token và ngữ cảnh, bạn sẽ có thể nắm bắt một cách trực quan các vấn đề cụ thể trong việc quản lý tải nhận thức.

Phần 3~4. Chiến lược chunk: Kích thước và cấu trúc

Thiết kế chunk hiệu quả là cốt lõi của chất lượng hệ thống RAG. Trong phần này, chúng tôi giới thiệu các chiến lược chunk đa dạng từ chunk kích thước cố định đến dựa trên đoạn văn, nhóm đơn vị ngữ nghĩa, cấu trúc phân cấp, và đi sâu vào ưu nhược điểm cũng như các trường hợp áp dụng của từng phương pháp. Dựa trên hiểu biết về tác động của kích thước và cấu trúc chunk đối với tải nhận thức và việc sử dụng ngữ cảnh, bạn có thể nắm vững bí quyết thực tế để thiết kế chiến lược chunk tối ưu phù hợp với từng tình huống. Cuối cùng, thông qua thực hành áp dụng các phương thức chunk khác nhau, bạn sẽ tích lũy kinh nghiệm để kết nối hữu cơ giữa lý thuyết và thực tiễn.

Phần 5. Kỹ thuật tạo chunk chất lượng cao

Trong phần này, chúng ta sẽ tìm hiểu các kỹ thuật nâng cao để tạo ra các chunk phù hợp với việc giảm tải nhận thức và nâng cao chất lượng thông tin. Bạn sẽ học và thực hành các công nghệ đa dạng như tóm tắt thông minh, kết hợp văn bản gốc với bản tóm tắt, phân cụm dựa trên embedding, gắn thẻ meta, phản ánh ý định truy vấn, cũng như cách kết hợp các kỹ thuật này để tạo ra các chunk hiệu quả hơn. Thông qua đó, bạn sẽ phát triển khả năng tạo ra các chunk chất lượng cao vượt ra ngoài phương pháp chunking đơn giản, có thể phản ánh cả ý nghĩa thông tin và ý định của người đặt câu hỏi. Đây là chiến lược cốt lõi giúp LLM đưa ra câu trả lời tối ưu ngay cả khi phải xử lý các tài liệu phức tạp.

Phần 6~11. Tích hợp vào pipeline RAG

Trong phần này, chúng ta sẽ tập trung vào việc thiết kế và tích hợp hệ thống RAG một cách toàn diện. Chúng ta sẽ đề cập một cách có hệ thống đến toàn bộ quy trình pipeline RAG, từ tiền xử lý, tìm kiếm độ tương đồng và lọc dữ liệu, tái cấu trúc chunk và thiết kế prompt, tạo câu trả lời và hậu xử lý, cho đến kiểm tra hiện tượng ảo giác (Hallucination) và chiến lược tái đưa vào hệ thống. Qua từng bước, chúng ta sẽ học các bí quyết tập trung vào việc tạo ra câu trả lời chính xác trong khi giảm thiểu tải nhận thức thông qua thực hành. Khóa học sẽ tập trung cung cấp các kỹ thuật thực tế và phương pháp giải quyết vấn đề có thể áp dụng ngay lập tức trong môi trường làm việc thực tế.

Phần 12~16. Kỹ thuật tối ưu hóa động

Trong phần này, chúng ta sẽ tìm hiểu cách điều chỉnh động tải ngữ cảnh và kích thước chunk phù hợp với từng tình huống. Từ đánh giá độ phức tạp của câu hỏi, thuật toán điều chỉnh kích thước chunk động, điều chỉnh tham số tóm tắt thích ứng, quản lý tích lũy ngữ cảnh trong đối thoại đa lượt, đến thiết kế vòng lặp giám sát hệ thống và phản hồi - chúng ta sẽ khám phá sâu các chiến lược tự động hóa và tối ưu hóa để vận hành hệ thống thông minh. Thông qua đó, bạn sẽ có được khả năng quản lý thời gian thực để ứng phó với những yêu cầu và độ phức tạp thay đổi, đồng thời tối đa hóa hiệu suất LLM.

Phần 17~21. Phương pháp đánh giá hiệu suất và chỉ số đánh giá hiệu suất

Đề cập đến các chỉ số và phương pháp luận đánh giá đa dạng để đánh giá khách quan hiệu quả của hệ thống RAG và chiến lược chunk. Học cách rút ra các điểm cải thiện thông qua việc đo lường đa chiều hiệu suất hệ thống, từ tỷ lệ thu hồi, độ chính xác, độ trễ phản hồi, phân tích chi phí, hiệu quả sử dụng token, mức độ hài lòng của người dùng, đến xác thực chiến lược thông qua A/B test. Đưa ra những hiểu biết sâu sắc cho việc tinh chỉnh hiệu suất liên tục và nâng cao dựa trên kết quả đánh giá, đồng thời tăng cường năng lực ra quyết định dựa trên dữ liệu.

Phần 22~25. Các nhiệm vụ còn lại và triển vọng công nghệ tương lai

Hiện tại, chúng ta thảo luận về các nhiệm vụ nghiên cứu cần giải quyết và khả năng mở rộng trong tương lai trong lĩnh vực quản lý tải nhận thức RAG và LLM. Chúng ta sẽ đề cập đến tối ưu hóa chunk hoàn toàn tự động, vấn đề tích hợp bộ nhớ dài hạn, kịch bản xây dựng hệ thống RAG dựa trên tài liệu đa phương tiện quy mô lớn, và phương pháp mở rộng hệ thống RAG theo hướng xử lý thông tin đa phương thức. Thông qua các xu hướng nghiên cứu mới nhất và các trường hợp ứng dụng thực tế, chúng ta sẽ hiểu rõ hướng phát triển và thách thức trong tương lai.

Phần 26~31. Giới thiệu phương pháp thực hiện dự án

Trong phần này, chúng tôi sẽ giải thích cách thực hiện một dự án tổng hợp để thiết kế, triển khai, điều chỉnh và đánh giá hệ thống RAG thực tế bằng cách tích hợp lý thuyết và kỹ thuật đã học cho đến nay. Chúng ta sẽ tiến hành từng bước một cách tuần tự từ việc lựa chọn chủ đề dự án đến thu thập và tiền xử lý dữ liệu, thiết kế chiến lược Chunk, tích hợp hệ thống RAG, đánh giá hiệu suất và viết báo cáo kết quả, thuyết trình cuối cùng và đánh giá code, giúp bạn có thể xác minh năng lực thực tế. Dựa trên nội dung đã học ở đây, các nhà phát triển sẽ có thể tiến hành các dự án thực tế theo nhóm hoặc cá nhân, và thông qua đó có thể hoàn toàn nội hóa nội dung đã học trong khóa học này.

🏆Hiệu quả mong đợi

  • Hiểu rõ cửa sổ ngữ cảnh LLM và giới hạn token dựa trên khái niệm tải nhận thức, đồng thời nắm vững các chiến lược quản lý chúng.

  • Với các kỹ thuật tạo chunk đa dạng và kỹ thuật tối ưu hóa chunk, bạn có thể phân chia và tóm tắt thông tin một cách hiệu quả để tối đa hóa hiệu suất của LLM.

  • Thực hành toàn bộ quy trình pipeline RAG, từ đó có được khả năng xây dựng và điều chỉnh hệ thống thực tế.

  • Học cách cung cấp dịch vụ AI ổn định và hiệu suất cao trong môi trường vận hành thời gian thực thông qua tối ưu hóa động và đánh giá hiệu suất.

  • Hiểu được xu hướng phát triển của hệ thống AI thông qua các đề tài nghiên cứu mới nhất và hướng mở rộng, từ đó tăng cường khả năng ứng phó trong tương lai.

📚Lịch sử thay đổi

  • 1 tháng 9 năm 2025

    • Tôi đã tách Phần 3 thành Phần 3 và Phần 4. Do đó, số thứ tự phần có thể không khớp với số thứ tự tài liệu bài học. Tôi sẽ chỉnh sửa tài liệu bài học và ghi âm lại video để đăng lại. Cảm ơn bạn đã chờ đợi.

    • Chúng tôi đang tái cấu trúc mục lục theo hướng giảm thiểu sự nhầm lẫn cho học viên. Theo đó, chúng tôi đã công khai lại các bài học đã tạm thời ẩn vào ngày 22 tháng 8.

  • 22 tháng 8, 2025

    • Chúng tôi đã chuyển các bài học thuộc khóa học [Nâng cao] chưa hoàn thành (Phần 11 ~ 30) sang trạng thái riêng tư. Trong tương lai, chúng tôi sẽ công khai từng phần hoặc từng bài học khi hoàn thành. Đây là biện pháp nhằm giảm thiểu sự nhầm lẫn cho học viên, mong các bạn thông cảm.

Khuyến nghị cho
những người này

Khóa học này dành cho ai?

  • Nhà phát triển trực tiếp thiết kế hoặc vận hành hệ thống LLM và RAG

  • Kỹ sư AI quan tâm tối ưu hóa xử lý tài liệu dung lượng lớn và xử lý hội thoại đa lượt.

Cần biết trước khi bắt đầu?

  • Tìm hiểu khái niệm cơ bản về Xử lý ngôn ngữ tự nhiên (NLP)

  • Hiểu nguyên lý hoạt động cơ bản của mô hình ngôn ngữ lớn (LLM)

  • Khái niệm về token hóa và cửa sổ ngữ cảnh

  • Kỹ năng lập trình cơ bản (ưu tiên Python)

  • (Tùy chọn) Kinh nghiệm áp dụng mô hình Trí tuệ nhân tạo và Học máy, hoặc kinh nghiệm thực hiện dự án liên quan

Xin chào
Đây là

332

Học viên

16

Đánh giá

1

Trả lời

4.8

Xếp hạng

17

Các khóa học

IT가 취미이자 직업인 사람입니다.

다양한 저술, 번역, 자문, 개발, 강의 경력이 있습니다.

Chương trình giảng dạy

Tất cả

240 bài giảng ∙ (23giờ 12phút)

Tài liệu khóa học:

Tài liệu bài giảng
Ngày đăng: 
Cập nhật lần cuối: 

Đánh giá

Tất cả

1 đánh giá

5.0

1 đánh giá

  • jjhgwx님의 프로필 이미지
    jjhgwx

    Đánh giá 495

    Đánh giá trung bình 4.8

    5

    7% đã tham gia

    Cảm ơn bài giảng hay!

    • arigaram
      Giảng viên

      Tôi vui vì buổi học зда như đã bổ ích.

2.089.422 ₫

Khóa học khác của arigaram

Hãy khám phá các khóa học khác của giảng viên!

Khóa học tương tự

Khám phá các khóa học khác trong cùng lĩnh vực!