강의

멘토링

로드맵

Challenge
모집 중
AI 개발

/

딥러닝 · 머신러닝

<밑바닥부터 만들면서 배우는 LLM> 완독 챌린지

이 챌린지는 <밑바닥부터 만들면서 배우는 LLM>(길벗, 2025) 도서를 7주간 역자와 함께 완독하는 챌린지입니다. 챌린지와 도서에 대한 궁금증은 인프런 또는 역자 블로그(https://tensorflow.blog/llm-from-scratch/), 카카오톡 오픈채팅방(http://bit.ly/tensor-chat, 참여코드:flow)으로 언제든지 문의해 주세요.

  • 박해선

51개 수업 학습

8회 미션 수행

무제한 복습, 내 것으로 만들어요.

질문하고 즉시 답을 얻어요.

성취의 증표, 수료증을 발급해요.

박해선님과 함께해요!

19,807

수강생

189

수강평

62

답변

4.8

강의 평점

5

강의

기계공학을 전공했지만 졸업 후엔 줄곧 코드를 읽고 쓰는 일을 했습니다. Google AI/Cloud GDE, Microsoft AI MVP입니다. 텐서 플로우 블로그(tensorflow.blog)를 운영하고 있고, 머신러닝과 딥러닝에 관한 책을 집필하고 번역하면서 소프트웨어와 과학의 경계를 흥미롭게 탐험하고 있습니다.

『혼자 만들면서 공부하는 딥러닝』(한빛미디어, 2025), 『혼자 공부하는 머신러닝+딥러닝(개정판)』(한빛미디어, 2025), 『혼자 공부하는 데이터 분석 with 파이썬』(한빛미디어, 2023), 『챗GPT로 대화하는 기술』(한빛미디어, 2023), 『Do it! 딥러닝 입문』(이지스퍼블리싱, 2019)을 집필했습니다.

『밑바닥부터 만들면서 배우는 LLM』(길벗, 2025), 『핸즈온 LLM』(한빛미디어, 2025), 『머신 러닝 Q & AI』(길벗, 2025), 『개발자를 위한 수학』(한빛미디어, 2024), 『실무로 통하는 ML 문제 해결 with 파이썬』(한빛미디어, 2024), 『머신러닝 교과서: 파이토치 편』(길벗, 2023), 『스티븐 울프럼의 챗GPT 강의』(한빛미디어, 2023), 『핸즈온 머신러닝 3판』(한빛미디어, 2023), 『만들면서 배우는 생성 딥러닝 2판』(한빛미디어, 2023), 『코딩 뇌를 깨우는 파이썬』(한빛미디어, 2023), 『트랜스포머를 활용한 자연어 처리』(한빛미디어, 2022), 『케라스 창시자에게 배우는 딥러닝 2판』(길벗, 2022), 『개발자를 위한 머신러닝&딥러닝』(한빛미디어, 2022), 『XGBoost와 사이킷런을 활용한 그레이디언트 부스팅』(한빛미디어, 2022), 『구글 브레인 팀에게 배우는 딥러닝 with TensorFlow.js』(길벗, 2022), 『(개정2판)파이썬 라이브러리를 활용한 머신러닝』(한빛미디어, 2022)을 포함하여 수십여 권의 책을 우리말로 옮겼습니다.

챌린지 안내

이 챌린지의 모집 기간은 9월 23일부터 10월 5일까지입니다.

챌린지 일정은 10월 6일부터 11월 30일까지 8주간 진행됩니다.

(실제 챌린지 커리큘럼은 7주이지만 추석 연휴를 고려하여 기간을 8주로 잡았습니다)


챌린지에 참여하시면 다음과 같은 정보와 혜택이 제공됩니다.

  1. 역자가 본문을 설명하는 동영상 강의를 제공합니다.

  2. 매주 독서 인증과 함께 진도 케어

  3. 챌린지 참가 전원에게 해당 도서의 코드를 설명하는 유료 강의(6만원 상당, 추후 공개) 무료 쿠폰 제공

  4. 챌린지 완주시 길벗 홈페이지에서 현금처럼 사용할 수 있는 포인트 2만점 지급 (포인트를 후원해 주신 길벗 출판사에 감사드립니다)

참고 사이트

도서 소개

한 줄 한 줄 코드를 따라가다 보면, 나만의 GPT가 완성된다!
GPT를 밑바닥부터 구현하며 LLM의 원리를 손끝으로 체득하는 실전 가이드

어려운 개념은 그림으로 풀고, LLM은 직접 만들면서 배운다. 이 책은 대규모 언어 모델의 구조와 동작 원리를 처음부터 끝까지 직접 구현하며 학습할 수 있는 실전형 LLM 입문서다. 단순히 개념을 설명하는 데 그치지 않고 텍스트 전처리와 토큰화, 임베딩 과정을 출발점으로 삼아, 셀프 어텐션과 멀티헤드 어텐션, 트랜스포머 블록을 차근차근 구축해 나간다. 이어서 이러한 구성 요소들을 통합하여 실제 GPT 모델을 완성하고, 모델의 파라미터 수와 훈련 안정화 기법, 활성화 함수와 정규화 방법 등 최신 아키텍처 설계의 핵심 요소들을 직접 다뤄본다. 또한 사전 학습과 미세 튜닝 과정을 깊이 있게 안내한다. 레이블 없는 데이터에서 사전 훈련을 진행하고, 텍스트 분류와 같은 다운스트림 작업에 맞춰 모델을 튜닝하며, 최근 각광받는 지시 기반 학습 기법까지 실습할 수 있다. LoRA 기반의 파라미터 효율적 미세 조정(PEFT) 같은 최신 내용도 담아 LLM을 실제 서비스와 연구에 연결할 수 있는 방법까지 폭넓게 제시한다. 모든 개념은 파이토치 코드로 구현되어 있으며, 일반 노트북 환경에서도 실습할 수 있도록 최적화했다. 이 책의 구현 과정을 따라가다 보면 LLM 내부에서 어떤 일이 일어나는지 자연스럽게 이해하고, 대규모 언어 모델의 메커니즘이 어떻게 작동하는지 손끝으로 체득하게 될 것이다.

10

6

챌린지 시작일

2025년 10월 6일 오전 12:00

챌린지 종료일

2025년 11월 30일 오후 11:59

챌린지 커리큘럼

전체

59개 ∙ (39분)

해당 강의에서 제공:

챌린지에서 배워요

  • 밑바닥부터 시작해서 완전한 LLM을 직접 코드로 구현합니다.

  • 트랜스포머와 어텐션을 비롯해 LLM을 구성하는 핵심 컴포넌트를 배웁니다.

  • GPT와 유사한 LLM을 사전 훈련하는 방법을 배웁니다.

  • 분류를 위해 LLM을 미세 튜닝하는 방법을 배웁니다.

  • 사람의 지시를 따라 응답하도록 LLM을 미세 튜닝하는 방법을 배웁니다.

이런 분들께
추천드려요

학습 대상은
누구일까요?

  • 대규모 언어 모델(LLM)의 작동 원리를 상세하게 파악하고 싶은 분

  • 파이토치와 transformers 패키지를 사용해 LLM을 사전 훈련하고 미세 튜닝하고 싶은 분

  • 오픈AI의 GPT-2 모델의 구조를 알고 싶은 분

  • 무엇이든 직접 만들어 봐야 직성이 풀리는 분!

선수 지식,
필요할까요?

  • 파이썬 프로그래밍에 대한 기초 지식이 필요합니다.

  • 파이토치에 익숙하지 않다면 책 뒤에 실린 부록 A를 참고하세요.

수강평

아직 충분한 평가를 받지 못한 강의입니다.
모두에게 도움이 되는 수강평의 주인공이 되어주세요!

문의 이메일

haesun.park@tensorflow.blog

자주 묻는 질문