Thumbnail

밑바닥 부터 시작하는 머신러닝 입문 대시보드

(4.3)
41개의 수강평 ∙  994명의 수강생
공개되지 않은 강의로
수강이 제한됩니다.
지식공유자: TeamLab
총 134개 수업 (28시간 20분)
수강기한: 
무제한
수료증: 발급
난이도: 
입문
-
초급
-
중급이상
지식공유자 답변: 미제공

초급자를 위해 준비한
[인공지능, 데이터 분석] 강의입니다.

본 강의는 TEAMLAB과 Inflearn이 함께 구축한 데이터 사이언스 과정의 두 번째 강의인 밑바닥 부터 시작하는 머신러닝 입문 입니다. 밑바닥부터 시작하는 머신러닝 입문은 Part I과 Part II로 구성되어 있습니다. 본 강의는 TEAMLAB과 Inflearn이 함께 준비한 WADIZ 펀딩의 지원을 받아제작되었습니다.

1. 강좌소개

본 머신러닝 입문 강좌는 TEAMLAB과 Inflearn이 함께 구축한 데이터 사이언스 과정의 두 번째 강의인 밑바닥 부터 시작하는 머신러닝 입문 강좌 입니다. 밑바닥부터 시작하는 머신러닝 입문은 Part I과 Part II로 구성되어 있습니다. 이 강의는 TEAMLAB과 Inflearn이 함께 준비한 WADIZ 펀딩의 지원을 받아제작되었습니다. 아래 목록에 대한 강의를 개발할 예정입니다.

또한 기존 K-MOOC 과정은 아래 목록을 참고하시기 바랍니다.

학습목표 도움이 되는 분들
머신러닝에 대한 기초개념과 주요 알고리즘들에 대해 이해하고 구현하는 것을 목적으로 하며, 본 과정을 통해 수강자는 데이터 과학에서 사용되는 다양한 용어에 대한 기본적인 이해를 할 수 있습니다. 프로그래밍 입문하고 싶은 분 데이터 과학을 배우고 싶은 초보자 머신러닝 시작 전 기초를 다지고 싶은 분 데이터과학 분야 취업 준비생 아무나

 2. 강좌 특징

  • 본 과정의 기본적인 구성은 알고리즘에 대한 설명, Numpy를 사용한 구현, Scikit-Learn을 사용한 패키지 활용으로 이루어 져 있습니다.
  • 수강자는 머신러닝에서 주로 사용되는 알고리즘을 구현하기 위해 고등학교 수준의 통계학과 선형대수학의 이해가 필요합니다.
  • 수강자는 본 과정을 통해 Numpy, Pandas, Matplotlib, Scikit-Learn 등 데이터 분석을 위한 기본적인 파이썬 패키지를 이해하게 됩니다.

3. 머신러닝으로 할 수 있는 것들

4. 참고자료

  • Machine Learning (Couera) by Andrew Ng
  • 모두를 위한 딥러닝 by Sung Kim
  • C++로 배우는 딥러닝 by 홍정모 교수님
  • Machine Learning From Scratch[https://github.com/eriklindernoren/ML-From-Scratch]

코드과제 분석 기술지원 : 래블업(www.lablup.com)

Textbooks

Reading materials 밑바닥부터 시작하는 데이터 과학(조엘 그루스, 2016)
파이썬 머신러닝(세바스티안 라슈카, 2016)
Hands-On Machine Learning with Scikit-Learn and TensorFlow(Aurélien Géron, 2017, PDF)
Data Mining: Concepts and Techniques(Jiawei Han, Micheline Kamber and Jian Pei , 2011, PDF)
Supplementary textbooks 파이썬 라이브러리를 활용한 데이터 분석(웨스 맥키니, 2013)
머신러닝 인 액션(피터 해링턴, 2013)
데이터 과학 입문(레이철 슈트 | 캐시 오닐, 2014)
머신러닝 인 파이썬(마이클 보울즈, 2015)
머신러닝 이론 입문(나카이 에츠지, 2016)

Prerequisites - 수강전 이수 또는 수강중 들었으면 하는 교과들

입문 수준의 통계학 세상에서 가장 쉬운 통계학(고지마 히로유키, 2009)
세상에서 가장 쉬운 베이즈통계학입문(고지마 히로유키, 2017)
확률과통계(한양대학교 이상화 교수, 2014)
Reading Materials: Data Science from the Scratch - Ch.5, Ch.6, Ch.7 고교 이과 수준의 선형대수학 (Matrix와 Vector의 기본개념은 Review 필요) Essence of linear algebra(3Blue1Brown, 2017)
Linear Algebra(Khan Academy) 선형대수학(한양대 이상화 교수, 2013)
- Advance Course Reading Materials - Data Science from the Scratch - Ch.4 고교 이과 수준의 미적분학 (개념에 대한 이해 필요) Essence of calculus(3Blue1Brown, 2017)
파이썬 기초 데이터 과학을 위한 파이썬 입문 (TEAMLAB, 2017)
Git Pro Git (스캇 샤콘 | 벤 스트라웁, 2016)
Git & Github (TEAMLAB, 2016) Git 강의 (생활코딩, 2014)

5. 강사 소개

최성철 (Director of TEAMLAB)

감동근, 강남구, 강동훈, 강민구, 강승형, 강신현, 강정모, 강천성, 견은경, 고상규, 고태영, 고형주, 곽병우, 곽준규, 곽효은, 권기웅, 권수림, 권준호, 김강한, 김기범, 김기현, 김대현, 김동수, 김범영, 김상호, 김석, 김설화, 김성선, 김영곤, 김영복, 김완, 김우재, 김원준, 김유준, 김재훈, 김종철, 김주호, 김준엽, 김준철, 김준태, 김지훈, 김진영, 김태일, 김태형, 김현수, 김현일, 김현표, 김형수, 김희정, 남궁영, 노동흔, 노정철, 노진선, 노태주, 류재국, 류지환, 목정환, 문종배, 문진솔, 문진원, 박경화, 박동희, 박두강, 박민준, 박선호, 박세원, 박수연, 박신영, 박재호, 박제민, 박준혇, 박진태, 박찬진, 박철홍, 박태균, 박태욱, 박혜원, 박홍성, 박훈범, 박흥주, 배윤성, 배이환, 배진의, 백길호, 백상일, 변경섭, 서기용, 서동진, 서동화, 서윤희, 서재원, 석민호, 성정모, 손기창, 손백모, 손유연, 손정훈, 송민규, 송은정, 송지훈, 신동수, 신명석, 신익순, 신재근, 신정현, 신진규, 신헌섭, 안병훈, 안중희, 양제열, 오성우, 오승재, 옥재우, 우지원, 원선, 원하리, 위재혁, 유영호, 윤병길, 윤석채, 윤석필, 윤성현, 윤준서, 윤진환, 이경록, 이경미, 이경은, 이기용, 이대규, 이덕기, 이돈중, 이민선, 이상엽, 이성주, 이성한, 이성훈, 이수환, 이승규, 이승준, 이신애, 이연준, 이영숙, 이영일, 이용민, 이유정, 이은섭, 이자호, 이재준, 이재현, 이정연, 이정호, 이종석, 이주웅, 이주원, 이지선, 이지오, 이창섭, 이형범, 임세민, 임원균, 임종태, 임지홍, 임채현, 장석원, 장우일, 장우철, 장준혁, 장현정, 장홍기, 전경환, 전용진, 전종열, 전진명, 정광윤, 정광호, 정대환, 정동렬, 정동민, 정성욱, 정수정, 정승현, 정영교, 정윤기, 정찬모, 정향원, 정현철, 조광제, 조민하, 조수정, 조영만, 조용준, 조원석, 조재문, 조중현, 주정석, 진소라, 차동철, 차진만, 채호진, 최경민, 최웅식, 최인보, 최정원, 최제호, 최준식, 최한동, 추정호, 하준수, 한보람, 한성욱, 한성현, 한형섭, 현승철, 홍미나, 홍심희, 홍준원, 홍태환, 황대성, 황의영, 황지영, 효주, eric, Sunghuek Park, 래블업(Lablup), 신정규, TeamLab, 최수경, 리세리


안녕하세요
TeamLab 입니다.
TeamLab의 썸네일
커리큘럼 총 139 개 ˙ 28시간 20분의 수업
이 강의는 영상, 수업 노트, 첨부 파일이 제공됩니다. 미리보기를 통해 콘텐츠를 확인해보세요.
섹션 0. Chapter 1 - Introduction to Machine Learning
Machine Learning Overview 미리보기 08:00
강의자료 (전체받기)
An Understanding of the Data Keywords 미리보기 15:00 How to Learn Machine Learning 미리보기 07:00 Types of Machine Learning 미리보기 09:00
A History of Data Analysis: In Perspective of Business 13:00
[Environment Setup] Python Ecosystem for Machine Learning 05:00
[Environment Setup] How to use Jupyter Notebook 11:00
[참고자료] 가상환경과 Package 활용하기 14:00
섹션 1. Chapter 2 - Warm Up Section: An understanding of data
Chapter Intro 미리보기 01:00
The concepts of a feature 13:00
Data types 10:00
Loading data with pandas 08:00
Representing a model with numpy 18:00
섹션 2. ' Supplements - Linear algebra
Lab: Simple Linear algebra concepts 16:00
Lab: Simple Linear algebra codes 25:00
– 과제 제출 방법 : Linear algebra 08:00
- Code Assignment: Linear algebra with pythonic code
섹션 3. Chapter 3 - Numpy Section
Chapter Intro - Numpy 미리보기 01:00
Numpy overview 04:00
ndarray 17:00
Handling shape 06:00
Indexing & Slicing 09:00
Creation functions 13:00
Opertaion functions 16:00
Array operations 14:00
Comparisons 11:00
Boolean & fancy Index 08:00
Numpy data i/o 06:00
Assignment: Numpy in a nutshell
[Supplements] TF-KR 첫 모임: Zen of NumPy 미리보기 40:55
섹션 4. Chapter 4 - Pandas Section #1
Chapter Intro 미리보기 01:00
Pandas overview 03:00
Series 10:33
DataFrame 14:34
Selection & Drop 15:14
Dataframe operations 07:00
lambda, map apply 18:00
Pandas builit-in functions 13:19
Assignment: Build a matrix
섹션 5. Chapter 5 - Pandas Section #2
Chapter 5 Intro
Groupby I 15:00
Groupby II 15:00
Casestudy 12:00
Pivot table & Crosstab 07:09
Merg & Concat 14:23
Database connection & Persistance 07:53
섹션 6. Chapter 6 - Matplotlib Section & Miniproject
Chapter 6 overview 미리보기
Matplotlib overview 02:00
Basic functions & operations 17:00
Graph 19:32
Matplotlib with pandas 16:00
Data Cleaning Problem Overview 02:59
Missing Values 18:00
Categorical Data Handling 22:00
Feature Scaling 16:00
Casestudy - KagglepProblems 26:00
섹션 7. Chapter 7 - Linear Regression
Chapter 7 Overview 미리보기
Linear regression overview 11:00
Cost functions 13:00
Normal equation 17:00
Lab Assignment: Normal equation
Gradient descent approach 11:00
Linear regression wtih gradient descent 10:00
Linear regression implementation wtih Numpy 23:00
Multivariate linear regression models 12:00
Performance measure for a regression model 08:00
Linear regression implementation wtih scikit-learn 13:00
Lab Assignment: Gradient descent
섹션 8. Chapter 8 - Linear Regression extended
Chapter 8 overview
Stochastic gradient descent 18:00
SGD implementation issues 16:00
Overfitting and regularization overview 11:00
Regularization - L1, L2 17:00
sklearn Linear Model family 20:00
Polynomial regression 18:00
Sampling method 31:00
Kaggle project : Bike demand 33:00
섹션 9. Chapter 9 - Logistics Regression
Chapter 9 intro 미리보기 01:00
Logistic regression overview 07:00
Sigmoid function 07:00
Cost function 18:00
Logistic regression implementation with Numpy 14:00
Maximum Likelihood Estimation 07:00
Logistic regresion with sklearn 18:00
Confusion matrix 06:00
Performance metrics for classification 12:15
ROC Curve 14:00
섹션 10. Chapter 10 - Logistics Regression extended
Chapter 10 overview
Multiclass Classification overview 05:00
Softmax function #1 10:00
Softmax function #2 23:00
Softmax regression with numpy 22:00
Performance metrics for classification 03:00
Multiclass classification with scikit-learn 19:00
섹션 11. Chapter 11 - Naive Bayesian Classifier
Chapter 11 overview 미리보기 01:00
Probability overview 05:00
Bayes' theorem 14:00
Single variable bayes classifier 09:36
Navie bayesian Classifier 10:22
NB Classifier Implementation 09:00
Multinomial Naive Bayes 15:00
Gaussian Naive Bayes 08:00
NB classifier with sklearn 14:48
20news group classifaication 1 29:25
20news group classifaication 2 23:50
섹션 12. ' Supplements : Text handling Lab: News categorization
Lab: News categorization 1 14:00
Lab: News categorization 2 35:00
섹션 13. Chapter 12 - Decision Tree
Chapter 12 intro 미리보기 01:00
Decision tree overview 05:00
The concept of entropy 06:00
The algorithme of growing decision tree 10:00
ID3 & Information gain 18:00
CART & Gini Index 22:00
Tree pruning 05:00
Decision Tree with sklearn 22:00
Handling a continuous attribute 09:00
Decision Tree for Regression 06:00
섹션 14. Chapter 13 - Ensemble
Chapter 13 intro 미리보기 01:00
Ensemble model overview 06:00
Voting classifier 12:00
Bagging 19:00
Random Forest 13:14
AdaBoost 31:00
Gradient boosting #1 23:00
Gradient boosting #2 16:00
XGBoost, GBM & LightGBM 23:00
Installation guide on Windows 08:00
Stacking 20:00
섹션 15. Chapter 14 - Performance tuning
Chapter 14 intro 미리보기 01:00
Chapter 14 Overview 07:00
Feature Engineering I: Generation 19:00
Feature Engineering II: Statics 13:00
Feature Engineering III: Model based 12:00
Feature Engineering #4: Iterative 16:00
Imbalanced dataset #1 14:00
Imbalanced dataset #2 14:00
Hyperparmeter searching with Distributed Machines 21:00
AutoML 29:00
강의 게시일 : 2017년 12월 18일 (마지막 업데이트일 : 2019년 05월 07일)
수강평 총 41개
수강생분들이 직접 작성하신 수강평입니다.
4.3
41개의 수강평
5점
4점
3점
2점
1점
VIEW 추천 순 최신 순 높은 평점 순 낮은 평점 순 평점 순 높은 평점 순 낮은 평점 순
백곰이 thumbnail
4
머신러닝의 기본개념을 빠르게 이해하기 좋은 강좌 - 강의의 초반부는 짜임새 있게 진행되는듯 하다가 후반부에서 대략적으로 설명이 되고, 넘어가는 듯한 느낌이네요, 조금 아쉽습니다. - Machnine Learning from Scratch with Python Part II 강좌는 언제쯤 나오는지도 궁금합니다.
2019-04-13
shuma1359 thumbnail
4
좋은 강의였습니다
2021-11-17
sckim thumbnail
5
많이 도움 되는 강의였습니다.
2022-03-31
이장수 thumbnail
5
내용이 많은 만큼 도움이 큰 과정이네요
2021-09-06
원종갑 thumbnail
3
수학을 어려워 하는 수강생은 어려운 강의 같습니다. 좀 더 쉬운 프로그램 언어 교육이 되었으면 합니다.
2021-09-19
연관 로드맵
이 강의가 포함된 잘 짜여진 로드맵을 따라 학습해 보세요!