Thumbnail
인공지능 딥러닝 · 머신러닝

딥러닝 이론 + PyTorch 실무 완전 정복 대시보드

(5)
12개의 수강평 ∙  198명의 수강생
284,900원

월 56,980원

5개월 할부 시
지식공유자: 변정현
총 143개 수업 (13시간 48분)
수강기한: 
무제한
수료증: 발급
난이도: 
입문
-
초급
-
중급이상
지식공유자 답변이 제공되는 강의입니다
폴더에 추가 공유

초급자를 위해 준비한
[자연어 처리, 딥러닝] 강의입니다.

딥러닝 현업에 종사하기 위해 필요한 딥러닝의 “핵심 개념”을 배우고 PyTorch을 활용한 실습을 통해서 실제 딥러닝 프로젝트를 수행하는데 필요한 실무를 가르쳐주는 강의입니다.

✍️
이런 걸
배워요!
딥러닝이 동작하는 원리
딥러닝의 핵심 개념 (손실 함수, 경사하강, 자동미분 등등)
파이토치 (PyTorch)로 Custom 모델 만들기
딥러닝의 주요 모델 (CNN, RNN, Transformer)
컴퓨터비전에 대한 실습
자연어처리에 대한 실습

이런 분들께 추천드려요!

🎓
학습 대상은
누구일까요?
머신러닝 / 딥러닝 엔지니어 취업 혹은 이직을 준비
AI 대학원 진학 목표
머신러닝 / 딥러닝을 제대로 배우고자 하시는 분
딥러닝에 대한 이론과 실무 역량을 탄탄히 다지고자 하시는 분
여러 딥러닝 강의, 부트캠프를 들었지만 아쉬웠던 분
ML 엔지니어 기술 면접 준비하시는 분
ML 엔지니어로 취업 준비하시는 비전공자
📚
선수 지식,
필요할까요?
고등학교 교과 수준의 영어 및 수학
기초적인 Python
기초적인 Numpy

안녕하세요
변정현 입니다.
변정현의 썸네일

경력:

  • (현) ML Engineer @ MakinaRocks

  • (전) ML Engineer @ DearGen

  • (전) ML Engineer @ DeepBio

  • (전) Research Student @ UCL NLP Group, Streetbees

  • (전) Research Student @ ICL Photonics Lab

     

학력:

  • University College London (UCL): MSc in Machine Learning (머신러닝 석사) (학점: Distinction, GPA 4.0/4.0)

  • Imperial College London (ICL): BSc in Theoretical Physics (이론물리학 학사) (학점: First Class Honours, GPA 4.0/4.0)

소개:

5년차 Machine Learning Engineer입니다. (Google DeepMind가 출범하였고, Demis Hasabis가 박사과정을 한) University College London에서 머신러닝 석사를 전공하였습니다. 석사 때는 NLP에서 Knowledge Graph Embedding을 연구하였고, DeepBio에서는 Medical Diagnosis에 적용되는 Image Classification, Segmentation 딥러닝 모델들을 개발하였습니다. Deargen에서는 신약 개발의 Drug Target Interaction와 같은 문제 적용되는 GNN, RNN, Transformer 등등의 다양한 딥러닝 모델들을 적용한 경험이 있습니다. 현재 재직중인 MakinaRocks에서는 제조 현장의 로봇팔의 이상탐지에 적용되는 딥러닝 모델 및 머신러닝 시스템을 구축하고 있습니다.

커리큘럼 총 143 개 ˙ 13시간 48분의 수업
이 강의는 영상, 첨부 파일이 제공됩니다. 미리보기를 통해 콘텐츠를 확인해보세요.
섹션 0. 강의 소개
섹션 1. PyTorch 환경 설정 및 PyTorch의 기초
[실습] PyTorch 환경 설정에 대한 소개 미리보기 03:43
[실습] PyTorch 환경 설정하기 (Mac) 09:11
[실습] PyTorch 환경 설정하기 (Windows) 05:59
[실습] Colab으로 PyTorch 환경 설정하기 04:28
섹션 2. 딥러닝이란?
[이론] 딥러닝 (Deep Learning)은 뭘까? 04:15
[이론] 뉴럴넷 (Neural Network)은 뭘까? 07:03
[실습] Neural Network의 동작 원리 미리보기 03:55
[실습] Deep Learning 실무 기초 개념 09:46
[실습] PyTorch 기초 - Tensor 13:08
[실습] PyTorch 기초 - Dataset과 DataLoader 15:38
[실습] PyTorch 기초 - Transforms 10:15
[실습] PyTorch로 구현해보는 Neural Network 미리보기 19:08
Section 2 요약 02:14
섹션 3. 손실 함수 (Loss Function)
Recap 및 섹션 3에 대한 소개 01:05
[이론] Loss Function의 정의 미리보기 01:56
[이론] Task의 종류 04:52
[이론] Regression task의 Loss: L1, L2, Huber, Log Cosh Loss 11:56
[이론] Soft Label vs. Hard Label 01:51
[이론] Classification Task의 Loss Function 05:20
[실습] PyTorch로 구현해보는 Loss Function 23:43
Section 3 요약 02:58
섹션 4. Advanced Topics in Loss Function (손실 함수 심화)
Recap 및 섹션 4에 대한 소개 01:02
[이론] One-hot-encoding 01:24
[이론] Entropy 03:10
[이론] Cross Entropy Loss 미리보기 02:44 [이론] Kullback-Leibler Divergence Loss 미리보기 03:32 [이론] KL Divergence 2번째 해석 미리보기 02:42
[이론] Cross Entropy와 KL Divergence에 대한 경사 02:05
Section 4 요약 03:00
섹션 5. 경사 하강법 (Gradient Descent)
Recap 및 섹션 5에 대한 소개 01:25
[이론] 경사 하강의 기본 개념 미리보기 08:03
[이론] 학습률 (Learning Rate)의 역할과 효과 04:30
[이론] Mini-batch Gradient Descent (미니 배치 경사 하강) 08:08
[이론] Forward pass와 Backward pass 03:35
Section 5 요약 04:56
섹션 6. Advanced Topics in Gradient Descent (경사 하강 심화)
Recap 및 섹션 6에 대한 소개 00:56
[이론] Multi-variate Multi-neuron Neural Network 08:33
[이론] Partial Differentiation (편미분) 03:21
[이론] Chain Rule (미분의 연쇄 법칙) 05:06
[이론] Auto Differentation 미리보기 15:21
[이론] Multivariante Gradient Descent 04:22
[이론] Gradient의 또다른 의미 05:23
[이론] 경사 하강이 잘 작동하기 위한 전제 조건 04:47
[실습] PyTorch로 구현해보는 Gradient Descent 미리보기 08:02
Section 6 요약 02:45
섹션 7. 활성 함수 (Activation Function)
Recap 및 섹션 7에 대한 소개 01:25
[이론] Non-linear한 Activation Function이 필요한 이유 미리보기 12:05
[이론] Activation Function의 종류 10:28
[실습] PyTorch로 구현해보는 Activation Function 06:14
Section 7 요약 03:15
섹션 8. 최적화 (Optimization)
Recap 및 섹션 8에 대한 소개 02:14
[이론] Momentum 06:05
[이론] Nesterov Accelerated Gradient (NAG) 04:06
[이론] AdaGrad 04:45
[이론] AdaDelta & RMSProp 06:15
[이론] ADAM 03:35
[실습] Pytorch로 구현해보는 Optimization 20:23
Section 8 요약 07:50
섹션 9. PyTorch로 만들어보는 Fully Connected NN!
Recap 및 섹션 9에 대한 소개 00:43
[실습] MNIST 데이터셋 08:04
[실습] Fully Connected NN 만들기 12:05
[실습] Training Loop 만들기 04:32
[실습] Inference Loop 만들기 04:26
[실습] 학습된 모델 저장 및 로드하기 11:41
종합해보기! 06:47
섹션 10. 정규화 (Regularization)
Recap 및 섹션 10에 대한 소개 01:42
[이론] Regularization이란? 00:59
[이론] Overfitting (과적합) 03:01
[이론] L1, L2 Regularization 05:20
[이론] Weight Decay 04:28
[이론] Drop Out 01:52
[이론] Early Stopping 01:12
[실습] PyTorch로 구현해보는 Regularization 16:15
Section 10 요약 03:36
섹션 11. 학습 속도 스케쥴러 (Learning Rate Scheduler)
Recap 및 섹션 11에 대한 소개 01:38
[이론] Step LR scheduler 01:26
[이론] Exponential LR Scheduler 01:42
[이론] Cosine Annealing LR Scheduler 02:25
[이론] Cosine Annealing with Warm Restarts LR Scheduler 04:18
[이론] Reduce on Plateau LR Scheduler 02:21
[이론] Linear & Cosine Scheduler with Warmup LR Scheduler 02:24
[실습] PyTorch로 구현해보는 LR Scheduler 12:52
Section 11 요약 01:09
섹션 12. 초기화 (Initialization)
Recap 및 섹션 12에 대한 소개 01:00
[이론] Initialization이 중요한 이유 04:22
[이론] Initialization의 효과와 적합한 Initialization 07:23
[이론] Initialization의 종류 01:24
[이론] Random Initialization 04:07
[이론] Transfer Learning을 통한 Initialization 06:31
[실습] PyTorch로 구현해보는 Initialization 13:37
Section 12 요약 02:44
섹션 13. 표준화 (Normalization)
Recap 및 섹션 13에 대한 소개 00:36
[이론] Normalization이란? 02:07
[이론] BatchNorm의 Motivation: Internal Covariate Shift 03:38
[이론] BatchNorm 04:19
[이론] BatchNorm의 실제 효과 01:33
[이론] InstanceNorm 02:32
[이론] LayerNorm 02:05
[이론] GroupNorm 01:52
[실습] PyTorch로 구현해보는 Normalization 17:32
Section 13 요약 02:34
섹션 14. Convolutional Neural Network (CNN)
Recap 및 섹션 14에 대한 소개 01:07
[이론] 이미지 데이터의 특성 04:38
[이론] CNN Layer의 작동 원리 미리보기 06:03
[이론] Dilated Operation 01:35
[이론] Strided Operation 00:59
[이론] Padding 01:24
[이론] Pooling 05:16
[실습] PyTorch로 구현해보는 CNN layer 21:06
[이론] 대표적인 CNN 모델들 소개 04:50
[이론] VGGNet 07:30
[이론] Inception Net & GoogLeNet 05:48
[이론] ResNet 04:14
[이론] DenseNet 04:17
[실습] PyTorch로 구현된 VGGNet 뜯어보기 10:00
[실습] PyTorch로 구현된 ResNet 뜯어보기 05:06
[실습] 직접 만든 CNN 모델과 ResNet, VGGNet을 활용한 CV 프로젝트 07:35
Section 14 요약 05:23
섹션 15. Recurrent Neural Network (RNN)
Recap 및 섹션 15에 대한 소개 00:52
[이론] 시계열 데이터 (Time Series Data) 01:37
[이론] RNN과 RNN의 Forward Pass 04:52
[이론] RNN의 Backpropagation 05:13
[이론] RNN의 Vanishing Gradient 문제 03:16
[이론] Long Short Term Memory (LSTM) 07:18
[이론] Gated Recurrent Units (GRU) 04:05
[이론] RNN 계열 모델의 한계 03:34
[실습] PyTorch로 만들어보는 RNN, LSTM, GRU 30:49
Section 15 요약 04:36
섹션 16. Attention과 Transformer
Recap 및 섹션 16에 대한 소개 01:38
[이론] Attention의 기본 개념 06:57
[이론] Vectorize된 Attention 미리보기 09:33
[이론] Attention이 처음으로 제안된 모델 09:52
[이론] Transformer 모델 - Attention is all you need 01:42
[이론] BERT 모델 - BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding 03:12
[이론] Transformer의 Encoder 14:05
[이론] Transformer의 Decoder 03:03
[이론] Teacher Forcing 03:46
[이론] Masked Attention 04:05
[이론] Computational Complexity 02:48
[실습] PyTorch로 구현된 BERT 모델 뜯어보기 15:41
[실습] BERT 모델을 활용한 NLP 프로젝트 16:50
Section 16 요약 06:38
강의 게시일 : 2024년 01월 16일 (마지막 업데이트일 : 2024년 02월 10일)
수강평 총 12개
수강생분들이 직접 작성하신 수강평입니다.
5
12개의 수강평
5점
4점
3점
2점
1점
VIEW 추천 순 최신 순 높은 평점 순 낮은 평점 순 평점 순 높은 평점 순 낮은 평점 순
Daeung Kim thumbnail
5
입문자를 대상으로 하는 강의지만 2, 3년차 실무자의 주요 개념 복습용도로도 좋은 강의인 것 같습니다. 딥러닝의 수많은 이론과 논문들 중에서도 중요한 핵심 개념들이 짜임새있게 구성되어있고 소개념별로 강의가 분리되어있어 필요한 내용을 찾아보기 편리합니다. 개념 뿐만 아니라 구현까지 이해하기 쉽게 설명해주셔서 실무에도 도움이 되었습니다. 이 강의를 제가 대학생때 접했으면 좋았을텐데 왜 이런 강의를 이제야 접했는지 아쉽네요. 개념과 구현을 동시에 잡고 싶으신 분들에게 추천드립니다.
2024-02-16
kmtune thumbnail
5
loss function, optimizer 등 개념을 잘 모르고 사용한 부분에 대해서도 꼼꼼하게 짚어 주셔서 이론을 리뷰하는데 큰 도움이 되었습니다. 중급 과정 강의도 기대하겠습니다!!
2024-01-21
지식공유자 변정현
수강해주셔서 감사합니다 :) 그리고 도움이 되셨다니 다행이네요! 다음 강의도 더 열심히 준비해서 오픈하겠습니다!
2024-01-22
김철진 thumbnail
5
딥러닝 분야를 처음 접해보는 분은 물론, 중요 개념 위주로 복습해보시고 싶은 실무자 모두에게 도움이 될 수 있는 강의입니다. 처음 접해보는 분은 목차를 따라 흐름을 따라갈 수 있도록 강의의 구성이 bottom-up으로 잘 짜여있는 것 같고, 기존 실무자 분들은 내가 취약했던 개념을 빠른 시간 안에 복습해볼 수 있을 것 같습니다. 강의 목차와 내부 구성이 군더더기 없이 필수 요소를 잘 캐치하여 넣어주신 것 같습니다. 구성과 내용이 아주 깔끔합니다. 또한, 실무자 관점에서 관심이 있을만한 내용으로 강의가 잘 구성되어 있습니다. 예를 들면, - 그래서 내부 동작은 어떤 로직으로 수행되는가? - 그래서 그걸 어떻게 implementation 하는가? 이 두 가지가 잘 차별화되어있다고 느꼈습니다. 실제로 교수자 관점에서만이 아닌, 업무 수행 관점에서 알 수 있는 경험적인 내용이 잘 녹아있습니다.
2024-01-29
지식공유자 변정현
강의를 수강해주셔서 감사합니다~ 정말 디테일하게 리뷰 남겨주셔서 감사합니다! 수강생 분들이 꼭 알아야 하는 핵심 개념들을 빠짐없이, 그리고 최대한 쉽게 풀어서 설명드릴 수 있도록 정말 많이 고민하고 많은 공수를 들여서 강의를 만들었는데 이렇게 알아봐 주셔서 정말 감사하고 정말 보람차네요 ㅠㅠ 리뷰 감사드립니다!
2024-01-29
hojin Lee thumbnail
5
이 강의는 딥러닝의 기초부터 고급 주제에 이르기까지 폭넓게 다루며, PyTorch를 사용한 실습 위주의 접근 방식을 채택하여 좋았습니다. PyTorch 환경 설정, 딥러닝의 기본 개념, 손실 함수, 경사 하강법, 활성 함수, 최적화, 정규화, 학습 속도 스케쥴러, 초기화, 표준화, CNN(Convolutional Neural Network), RNN(Recurrent Neural Network), 그리고 최신 주제인 Attention과 Transformer까지 다양한 주제를 다뤄서 좋았습니다. 강의는 초보자도 쉽게 접근할 수 있도록 설계되었으며, 각 섹션은 이론 설명과 함께 다양한 실습으로 구성되어 있어 학습자가 직접 코드를 작성하며 딥러닝의 원리를 체험할 수 있는 점이 특히 마음에 들었습니다. 특히, 실무에서 바로 적용 가능한 기초 개념부터 시작하여 고급 주제까지 단계별로 학습할 수 있어, 딥러닝 분야에 처음 접근하는 사람뿐만 아니라, 기본 지식을 리마인드하고자 하는 현업 인원들에게도 추천할만 하다고 생각합니다. 각 주제는 충분한 실습과 예제를 통해 깊이 있게 다루어지며, 이를 통해 학습자는 딥러닝의 다양한 측면을 종합적으로 이해하고 실제 문제 해결에 적용할 수 있는 능력을 기를 수 있을 거라고 생각합니다. 강의의 체계적인 구성과 실습 중심의 접근 방식은 학습자가 딥러닝 기술을 실제로 활용하는 데 필요한 실질적인 경험을 제공하는 이 강의를 딥러닝 분야에 관심이 있는 모든 이들에게 강력히 추천합니다.
2024-01-29
지식공유자 변정현
강의를 수강해주시고 이렇게 또 상세하게 리뷰 적어주셔서 감사합니다 ㅠㅠ 안그래도 폭넓은 주제를 다루되 최대한 깊이 있으면서도 쉽게 풀어서 설명드리고 실습을 통한 실무 감각을 익힐 수 있도록 커리큘럼을 구성하는데 고민을 많이 했습니다. 이렇게 도움이 되셨다니 보람차네요! 감사합니다 :)
2024-01-29
코닝로봇 thumbnail
5
백앤드 개발자 역할을 현재 하고 있는 사람입니다. 처음에 강의를 수강할 때 망설여졌지만, 수강 후 선택을 잘했다고 생각하고 있습니다. 평소에 저는 ML 엔지니어로 관심이 많아 수강하게 되었습니다. 물론, 최근 인공지능에 대해 관심이 무척 많았던 것도 결정적으로 수강한 계기가 되었구요. 우선, 대학교때 배웠던 가물가물했던 개념을 쉽게 설명 해 주셔서 확실히 이해가 좋았습니다. 특히, 이론강의 중 수식 설명을 쉽게 해 주셔서 수식에 대한 이해가 좋았구요. 특히, 저와 같이 ML에 대한 기본적인, 겉으로만 알고 있는 사람에게 딱 적합한 강의인 것 같습니다. 참고로 제가 예전 대학원 다닐때 논문으로 고생을 했는데요. 그 때 이 강의가 있었으면 무척 도움이 많아 되었을 것 같습니다. 인공지능 대학원쪽에 관심이 있거나, 대학원 논문 작성시 개념적인 내용이 필요한 분은 한번쯤 들어보면 많이 도움이 될 것 같습니다.
2024-01-30
지식공유자 변정현
안녕하세요! 대부분의 딥러닝 부트캠프들과 강의들이 너무 기본적인 내용들만 수박 겉햝기 식으로 훑고 마는 것에 대한 폐해에 너무 답답한 마음이 들었고, 제가 면접을 봤던 수많은 부트캠프 출신 면접자들이 단편적으로만 딥러닝을 이해해서 안타까운 마음이 컸습니다. 그래서 정말 오랜 시간과 많은 공수를 들여 이번 강의를 만들게 되었는데 이렇게 도움이 되셨다니 정말 기쁘네요! 수강해주셔서 감사합니다!
2024-01-30
연관 로드맵
이 강의가 포함된 잘 짜여진 로드맵을 따라 학습해 보세요!