강의

멘토링

커뮤니티

NEW
AI 기술

/

AI에이전트 개발

로컬 LLM(Local LLM) 활용 가이드 Part 1 - small LLM(sLLM) 활용하기 & LLM의 성능 평가(Evaluation) 및 개선하기

다양한 로컬 LLM(Qwen, Gemma)을 활용하는 방법을 학습하고, LLM 시스템의 성능을 효율적으로 평가(Evaluation)하고 개선하는 다양한 기법들을 살펴봅니다.

7명 이 수강하고 있어요.

난이도 중급이상

수강기한 무제한

  • AISchool
실습 중심
실습 중심
AI 활용법
AI 활용법
에이전트
에이전트
실습 중심
실습 중심
AI 활용법
AI 활용법
에이전트
에이전트

수강 후 이런걸 얻을 수 있어요

  • 로컬 LLM(Qwen, Gemma)를 이용해서 AI 에이전트를 구현하는 법

  • LLM 시스템의 성능을 평가(Evaluation)하고 개선하는 법

  • 고품질 AI 에이전트를 구현하는 법

로컬 LLM(Qwen, Gemma) 활용 방법을 학습하고, 다양한 로컬 LLM으로 AI 에이전트를 구현해봅니다.

실습을 통해 로컬 LLM(Local LLM)을 활용해서 다양한 AI 에이전트를 구현해봅니다.

  • 로컬 LLM(Qwen, Gemma)을 효율적으로 활용하는 법

  • LLM 시스템의 성능을 효과적으로 평가(Evaluation)하고 개선하는 법


이런 분들께 추천해요

로컬 LLM(Qwen, Gemma)을 활용해서 AI 에이전트를

만들어보고 싶은 분

OpenAI API가 아니라 로컬 LLM으로 AI 에이전트를 구현해보고 싶은 분

LLM 시스템 구현 능력을

향상시키고 싶으신 분

LLM의 성능을 효율적으로 평가(Evaluation)하고 개선하는 방법을 학습하고 싶은 분

최신 AI 트렌드를

놓치고 싶지 않은 분

최신 LLM 모델들을 팔로업(follow-up)하면서 최신 AI 트렌드를 놓치지않고 싶은신 분

선수과정✅

👋 본 강의는 Python, 자연어처리(NLP), LLM, 랭체인(LangChain), LangGraph에 대한 선수지식이 필요한 강의입니다. 반드시 아래 강의를 먼저 수강하시거나 그에 준하는 지식을 갖춘 뒤 본 강의를 수강하세요.

모두를 위한 대규모 언어 모델 LLM Part 5 - LangGraph로 나만의 AI 에이전트 만들기

Q&A 💬

Q. 로컬 LLM(Local LLM)이란 무엇인가요?

로컬(Local LLM)은 “내 PC/서버(로컬 환경)에서 직접 실행하는 대규모 언어 모델(LLM)”을 뜻합니다. 즉, OpenAI API처럼 클라우드(원격 서버)에 요청을 보내는 방식이 아니라, 내 컴퓨터의 CPU/GPU에서 모델을 돌려서 텍스트 생성/요약/번역/코딩 도움 등을 하는 형태입니다. 대표적인 로컬 LLM 모델로 Qwen과 Gemma 모델이 있습니다.


Q. 로컬 LLM(Local LLM)을 활용할 때의 장점은 무엇인가요?

오픈소스 로컬 LLM을 활용할 때의 장점은 다음과 같습니다.

  1. 데이터 통제/프라이버시

  • 민감 데이터(내부 문서, 고객정보)를 외부 API로 보내지 않고 온프레미스/사내 VPC에서 처리 가능.

  • 보안감사/규정준수(금융·의료 등)에서 유리.

  1. 비용 구조를 ‘예측 가능’하게 만들 수 있음

  • API처럼 “토큰당 과금”이 아니라 GPU/서버 비용으로 고정화 가능(트래픽이 클수록 유리해지기 쉬움).

  • 캐시/배치/양자화 등으로 단가를 직접 낮출 수 있음.

  1. 커스터마이징(튜닝/도메인 특화)이 쉬움

  • LoRA/QLoRA, DPO, RAG 튜닝, 시스템 프롬프트 고정 등 업무 도메인 맞춤 최적화가 가능.

  • 출력 포맷(예: JSON 엄격), 용어/톤/규칙 준수율을 현업 기준으로 끌어올리기 좋음.

  1. 벤더 락인 감소

  • 특정 회사의 정책 변경, 가격 인상, 모델 단종, 레이트리밋 변화에 덜 흔들림.

  • 필요하면 언제든 다른 모델로 스위칭 가능.

  1. 투명성/디버깅 이점

  • 가중치/아키텍처 정보가 공개되는 경우가 많아, 성능 이슈를 더 체계적으로 진단 가능.

  • 안전성/편향 테스트를 내부 기준으로 수행하기 쉬움.


Q. 선수 지식이 필요한가요?

본 [로컬 LLM(Local LLM) 활용 가이드 Part 1 - small LLM(sLLM) 활용하기 & LLM의 성능 평가(Evaluation) 및 개선하기] 강의는 랭체인(LangChain),랭그래프(LangGraph) 라이브러리와 LLM을 이용해서 AI 에이전트를 구현하는 프로젝트 실습을 다루고 있습니다. 따라서 Python, 자연어처리, LLM, 랭체인(LangChain), 랭그래프(LangGraph)에 대한 기초지식을 가지고 있다는 가정하에 강의가 진행됩니다. 따라서 선수지식이 부족하다면 반드시 선행 강의인 [모두를 위한 대규모 언어 모델 LLM Part 5 - LangGraph로 나만의 AI 에이전트 만들기] 강의를 먼저 수강하시길 바랍니다.

이런 분들께
추천드려요

학습 대상은
누구일까요?

  • 로컬 LLM(Local LLM) 활용법을 학습하고 싶은 분

  • 로컬 LLM(Qwen, Gemma)으로 AI 에이전트를 만들어보고 싶은 분

선수 지식,
필요할까요?

  • Python 사용 경험

  • 선수강의 [모두를 위한 대규모 언어 모델 LLM Part 5 - LangGraph로 나만의 AI 에이전트 만들기] 수강경험

안녕하세요
입니다.

9,479

수강생

718

수강평

353

답변

4.6

강의 평점

31

강의

커리큘럼

전체

37개 ∙ (7시간 3분)

강의 게시일: 
마지막 업데이트일: 

수강평

아직 충분한 평가를 받지 못한 강의입니다.
모두에게 도움이 되는 수강평의 주인공이 되어주세요!

얼리버드 할인 중

₩49,500

25%

₩66,000

AISchool님의 다른 강의

지식공유자님의 다른 강의를 만나보세요!

비슷한 강의

같은 분야의 다른 강의를 만나보세요!