스터디 주제 : LLM Context Engineering 마스터하기: RAG부터 Prompt Crafting까지
스터디 목표 :
- 단순히 프롬프트를 잘 쓰는 것을 넘어, LLM의 성능을 결정하는 '컨텍스트' 자체를 공학적으로 설계하고 최적화하는 방법을 체계적으로 학습하고 실험합니다.
- RAG, Few-shot, Agentic-flow 등 최신 기술을 실제 프로젝트에 적용하여, '쓸만한' 수준을 넘어 '제품 수준'의 AI 에이전트를 만드는 것을 목표로 합니다.
- 각자의 프로젝트나 사이드 프로젝트에 적용할 수 있는 실용적인 가이드라인과 코드 베이스를 함께 만들어갑니다.예상 스터디 일정(횟수) : 주 1회 온라인 진행을 생각하고 있습니다.
예상 커리큘럼 간략히 :
(해당 내용은 추후에 변경될 가능성이 굉장히 큽니다. 일단 지금 떠오르는대로 구성만 해보았습니다. 딱 정해진 내용은 아닙니다.)
- Week 1-2: Prompt Engineering 심화 (Zero-shot, Few-shot, CoT, System Prompt 설계)
- Week 3-4: RAG Deep Dive (Chunking, Embedding 최적화, Vector DB 선정 및 실험)
- Week 5-6: Agentic Architecture & Flow Engineering (ReAct, PocketFlow 등 에이전트 설계, Tool-use)
- Week 7: 컨텍스트 품질 평가 및 벤치마킹 (LLM 응답 품질을 측정하는 방법론)
- Week 8: 최종 프로젝트 발표 (개인 프로젝트에 적용한 Context Engineering 결과 공유)예상 모집인원 : 3~5명 정도 생각하고 있습니다. (소규모로 깊이 있는 논의와 코드 리뷰를 지향합니다. )
스터디 소개와 개설 이유 :
안녕하세요. AI 기반의 서비스를 개발하고 있는 개발자입니다. 프로젝트를 진행하며 LLM 에이전트의 답변 품질을 높이기 위해 다양한시도를 해보았지만, 어느 순간 혼자서는 프롬프트 구조를 개선하는 데 명확한 한계가 있다는 것을 느꼈습니다.
단순히 "이렇게 물어보니 답변이 더 좋더라" 수준을 넘어, 왜 그런 결과가 나오는지, 더 안정적이고 확장성 있는 컨텍스트를 제공하는
방법은 무엇인지 함께 탐구하고 싶어 스터디를 개설하게 되었습니다. '감'에 의존하는 프롬프트 튜닝이 아닌, '공학적'으로 컨텍스트를
설계하고 최적화하여 LLM의 잠재력을 100% 끌어내는 것에 진심인 분들과 함께하고 싶습니다.
스터디 관련 주의사항 :
- 본 스터디는 이론 강의가 아닌, 실제 코드를 작성하고 실험 결과를 공유하는 핸즈온(Hands-on) 방식으로 진행됩니다.
- 매주 스터디 전, 관련 논문이나 아티클을 읽고 자신의 생각을 정리해 와야 합니다.
- Python 또는 JavaScript에 대한 기본 지식과 LLM API (OpenAI, Anthropic 등) 사용 경험이 있는 분을 대상으로 합니다.스터디에 지원할 수 있는 방법을 남겨주세요. (이메일, 카카오 오픈채팅방, 구글폼 등) : https://open.kakao.com/o/sf1q4eUh
참고 사항 : 스터디 게시판에 영리를 목적으로 하는 게시글(유료 과외 및 멘토링 등)을 작성한 경우 해당 글은 운영 방침에 의해 중단, 삭제될 수 있음을 안내드립니다.