Thumbnail
BEST
데이터 사이언스 데이터 엔지니어링

빅데이터 하둡 (Hadoop 3.2.1) 직접 설치하기 대시보드

(4.6)
30개의 수강평 ∙  500명의 수강생

55,000원

지식공유자: Billy Lee
총 85개 수업 (6시간 39분)
수강기한: 
무제한
수료증: 발급
난이도: 
입문
-
초급
-
중급이상
지식공유자 답변이 제공되는 강의입니다
폴더에 추가 공유

초급자를 위해 준비한
[데이터 엔지니어링, 데이터 분석] 강의입니다.

하둡과 빅데이터를 배우고자 하는 수강생들은 이 과정을 통해 빅데이터 세계를 경험하는 놀라운 발전을 기념할 것입니다!

✍️
이런 걸
배워요!
일상에서 빅데이터 기술 접하기
하둡으로 빅데이터 다루기
하둡으로 빅데이터를 다루는 분산처리 기술 배우기
자바 언어를 이용하여 하둡 빅데이터 다루기
관계형 데이터 처리 한계를 하둡으로 뛰어넘는 기술 배우기
하둡의 다양한 프로젝트이자 인터페이스들을 배우기

바야흐로 빅데이터 시대! 👨‍💻
하둡(Hadoop)으로 전문가가 되어보세요.

데이터 사이언스의 중심,
대세는 하둡!

여러 IT 대기업, 소셜 미디어 서비스 등에서 빅데이터 분석 및 처리에 하둡(Apache Hadoop)을 앞다투어 사용하고 있습니다. 하둡은 대량의 자료를 적은 비용으로 처리할 수 있도록 만들어진 자바(Java) 언어 기반의 프레임워크로, 대규모 데이터 세트를 분산 저장하고 처리해 줍니다. 그런데, 그런 하둡을 통해 빅데이터 전문가 수준의 반열에 올라갈 수 있다면 어떨까요?

기업들은 데이터 분석을 통해 새로운 시장을 개척하고 희소성있는 가치를 부여하며, 새로운 소비자들에게 필요한 정보를 실시간으로 제공할 수 있는 쾌감을 부여할 수 있게 될 겁니다. 중소기업 또한 빅데이터는 꼭 다뤄야 할 필수 사항인 만큼, 빅데이터 관련 직무로 취업/이직을 꿈꾸는 분들께는 희소식이 아닐 수 없습니다.

BigData with Hadoop

구글, 야후, 페이스북, IBM, 인스타그램, 트위터 등
여러 기업에서 데이터 분석에 사용하고 있는
대표적인 빅데이터 솔루션, 하둡(Hadoop)을 통해
빅데이터 분산형 시스템 인프라를 구축해 봅니다.

이 강의는 빅데이터 용어에 대한 이해를 시작으로 공개 소프트웨어 하둡(Hadoop)을 통해 빅 데이터를 다루는 과정을 간접 체험할 것입니다. 이 강의를 통해 수강생 여러분은 빅데이터 테크놀로지 (Big Data Technology) 세계, 그리고 4차 혁명의 세계를 동시에 경험할 수 있게 됩니다.

하둡(Hadoop)이란?

  • 하둡은 공개형 소프트웨어로, 누구나 무료로 사용할 수 있는 오픈소스(Open Source)입니다.
    이 강의에서는 하둡 3.2.1 버전을 통해 빅데이터를 다룰 것입니다.

빅데이터 이해부터
하둡 사용법까지
한번에 OK.

빅 데이터
용어에 대한
필수적인 이해
하둡(Hadoop)
개념과 용도에
대한 소개
하둡을 통한
빅데이터 처리
학습 튜토리얼

이런 분들께 추천해요!

물론, 여기에 해당되지 않는 분들도 환영해요. (초보자는 2배로 환영합니다 ✌)

취업/이직
고려하는 미래형 IT
데이터사이언스 준비생
자바/파이썬을 통해
빅데이터를 다루고자
하시는 분
관심과 흥미
빅데이터에 대해
경험해보고 싶은 분
하둡 3.x 버전
데이터 환경 등을
경험하고픈 직장인

수강 전, 선수 지식을 확인해주세요!

  • 선수 지식으로 자바(Java) 프로그래밍 언어 기초, 빅데이터가상머신/데이터 셋 관련 용어에 대한 지식과 리눅스 우분투(Linux Ubuntu)에 대한 기본적인 이해가 필요합니다.

다음 내용을
학습합니다.

1. 가상화 기술 도전 및 게스트 운영체제에 대한 이해

서버 통합에 유리한 가상화 기술을 배우며 OS 레벨 가상화를 통해 하나의 OS로 여러 대의 서버를 분리시키는 방식을 기초로 배울 예정입니다. 리눅스에 적용할 수 있는 가상화 방식인 오픈 소스 솔루션 우분투(Ubuntu)를 통해 누구나 도전하여 다량의 서버를 제작 운영하게 될 것입니다. 나아가, 게스트 운영체제에 대한 지식은 물론 다량의 서버를 통해 빅 데이터를 분산 기술로 바꾸게 되며 벌어지는 다량의 기술 경험을 축적할 수 있게 됩니다. 서버 가상화를 이용하여 하나의 물리적인 서버에서 혹은 운영체제에서 매우 효율적인 가상 머신의 어려 운영체제를 경험할 수 있는 특혜(?)를 누릴 수 있죠.

  • 빅 데이터(Big Data)의 정의 및 실제 적용 사례에 대해 알아봅니다.
  • 기업에서 선호하는 데이터 처리 소프트웨어인 하둡(Hadoop) 관련 용어를 이해해 봅니다.
Data Sizes
The Landscape : Big Data

2. Ubuntu 20.04 LTS 위에 하둡을 설치하고 명령어를 조작하는 법

프론트엔드(FrontEnd) 개발자가 웹 애플리케이션을 개발할 때 자연스럽게 마주치는 리눅스 CLI(Command Line Interface) 방식의 도구를 사용하는 기초 방법부터, 하둡을 다루게 되는 리눅스 터미널을 자연스럽게 배울 예정입니다. 물론 비(非) Windows 기반의 GUI 환경에서 원도처럼 우분투를 사용하기 위한 제반 사항을 배우면서, 셀의 설정 파일과 같은 리눅스 시스템의 이해를 넘어 중급자 방향으로 자연스럽게 인도할 것입니다.

  • 윈도 10 기반 노트북에 가상머신으로 리눅스(Ubuntu 20.04 LTS)를 설치하고 설정해 봅니다.
  • 리눅스 가상머신 위에 하둡 3.2.1 버전을 설치합니다. 
Hadoop 2.x Architecture
Hadoop 2.x vs. 3.x

3. Hadoop 3.2.1 최신 방향 가이드 & 핵심 아키텍처 구조 이해

비정형 데이터 처리를 위한 빅데이터의 시작은 구글의 파일 시스템의 모형인 하둡 분산 파일 시스템(HDFS)과 맵리듀스(MapReduce), 그리고 얀(YARN)이라는 클러스터 확장 및 리소스 관리에 대한 이해입니다. 하둡버전 1, 2, 3의 아키텍쳐 구조에 대해 하나하나 살펴보며, 하둡 기술의 역사가 어떠한지 수강생 여러분께 그림을 그려드릴 것입니다.

  • 하둡 분산 파일 시스템(HDFS)을 이해하고 연동해 봅니다.
  • 맵리듀스(Map/Reduce) 프레임워크의 원리를 이해하고, 이를 근거로 데이터를 분석해 봅니다.
HDFS Architecture
YARN Core Components

4. HDFS 셸 조작 가이드 및 자바/파이썬으로 맵리듀스 애플리케이션 제작하기

데이터 조작에 쓰이는 기술은 다양하지만, 빅데이터 분석의 기초는 맵리듀스 애플리케이션 제작에 있습니다. 프로그래밍 언어 파이썬(Python)으로 기본 워드카운트 맵리듀스 애플리케이션부터 이클립스(Eclipse) 기반의 자바(Java) 언어로 COVID-19 애플리케이션 제작에 이르기까지, 다양한 빅데이터 맵리듀스 애플리케이션 제작은 이제 선택을 넘어 필수로 나아가야 할 방향을 제시할 것입니다. 

  • 자바(Java)로 하둡을 연동하고, 애플리케이션을 구현해 봅니다.
  • 파이썬(Python)으로 하둡을 연동하고, 애플리케이션을 구현해 봅니다.
Python Map/Reduce WordCount Application
Java Map/Reduce WordCount Application

예상 질문 Q&A!

Q. 빅데이터란 무엇인가요? 하둡을 사용할 때 그 정의가 필요한가요?

네, 당연히 하둡(Hadoop)을 다룰 때 반드시 빅데이터에 대한 간략한 정의 및 이해를 요구합니다. 물론 완벽하고 깊이있는 수준의 숙지를 요구할 정도는 아닙니다. 다만 하둡을 다룰 때 꼭 필요한 이해 정도를 요구하는 형태겠죠.

빅데이터는 하둡 툴을 가지고 매우 큰 데이터셋을 다룹니다. 이 데이터셋은 수많은 기업들이 다루는 여러 패턴 및 트렌드를 파악하기 위해 분석하는 기초 데이터입니다. 인간의 사회적 행동 및 패턴, 그리고 상호작용 가운데 벌어지는 인류의 가치 창출과 연관이 서려 있지요.

이미지 출처: TechTarget (원문 바로가기)

Q. 하둡이 무엇인가요? 컴포넌트는 무엇이고, 하둡 스택은 또 무엇인가요?

테라바이트를 넘어 페타(Petta/Zettabyte)에 이르는 대규모 소셜 사이트의 데이터를 처리해야 하는 사명을 하둡이 돕고 있습니다. 하둡 스택(Hadoop Stack)이란 이런 빅데이터를 다루는 오픈 소스 프레임워크 방식을 가리킵니다.

단순히 ‘하둡’은 ‘하둡 스택’이라고 불립니다. 싸고 일상적인 커머디티 하드웨어(Commodity hardware)를 사용하여 클러스트를 제작하고 그 방대한 서버들의 집합체인 클러스트 내에 대용량 프로세스 처리를 하도록 돕는 것이 하둡이자 하둡 스택이죠. 하둡 스택은 ‘단순 배치 프로세스’라고도 하며, 자바 기반의 '분산 컴퓨팅 플랫폼'입니다. 그래서 개인이 원하는 만큼의 데이터를 주기별로 배치를 돌리며 처리하면서, 데이터들을 원하는 형태로 가공 분산하여 결과값을 산출하는 것이죠.

Q. 프로그래밍 지식이 필요한가요?

프로그래밍에 대한 지식이나 코드 작성 경험이 없어도 괜찮습니다. 자바나 파이썬을 처음 경험한다고 생각하고 가르칠 수 있도록, 깊이있는 이해를 바탕으로 수업을 진행합니다. 강의에 쓰인 문서는 영어로 되어 있지만 따라하시는 데는 지장이 없도록 한국어로 강의합니다. 간혹 영어로 설명을 하기는 하지만, 고등학교 수준이면 해석할 수 있지 않을까요? (저의 낮은 영어실력으로도 꿈을 이룬 것처럼요.)

Q. 하둡을 다루는데 빅 데이터는 어느 정도 연관이 있나요?

이 강의는 당연히 하둡을 다루고 있습니다. 단순히 RDMS라는 오라클이나 MSSQL, 혹은 MYSQL을 넘어서 대용량 처리를 시작으로 데이터 처리 속도 문제, 저비용 효과라는 기업의 필수 요소를 창출하고자 합니다. 특히 소셜을 다뤄야 하는 기업들, 즉 곧 로우와 컬럼에 기초한 데이터 RDMS에서 다루는 관계형 데이터를 다루는 스트럭쳐 데이터(Structured data)뿐만 아니라, 이미지, 오디오, 워드 프로세스 파일 그 자체를 다뤄야 하는 언스트럭쳐 데이터(Unstructred data) 등도 하둡이 다루게 됩니다.

서비스 스트럭쳐 데이터를 다룰 때는 Email, CSV, XML, and JSON 과 같은 웹 서버와의 통신과 데이터 연동에 관련된 데이터를 말하고 있죠. HTML, Web Sites, NoSQL Databases 역시도 여기에 포함됩니다. 물론 EDI라는 비지니스 서류 관련 전산 이동시키는 컴퓨터 대 컴퓨터 간의 이동 처리 문제를 다룰 때 쓰는 데이터셋 누적도 역시 여기에 속하죠.

이미지 출처: MonkeyLearn Blog (원문 바로가기)

Q. 어느 정도 수준까지 내용을 다루나요?

이 강의는 Ubuntu(우분투) 20.04 LTS 기반에 Hadoop(하둡) 3.2.1을 직접 사용자가 설치할 수 있도록 도와줍니다. 유닉스나 리눅스 경험이 없어도 자연스럽게 따라오시면 리눅스를 바탕으로 이어지는 설치 요령 및 리눅스 운영체제를 자연히 숙지하게 됩니다. 또한 하둡이 다루는 CLI 언어나 사용자 언어를 익히는 기초적인 부분을 넘어, 구글이 가지고 있는 기술인 DFS and MapReduce 기술에 익숙해지도록 도와줄 것입니다. YARN(얀)에 대한 이해는 기초 이론만 가지게 되며, 추후 하둡 3.3.0 중급 과정에서 클러스트를 설치하면서 얀에 대한 보다 깊이있는 학습을 기대하시길 바랍니다.

Q. Ubuntu 20.04 LTS를 실습 환경으로 사용하는 이유가 있나요?

우분투(Ubuntu)는 무료로 사용할 수 있고, LTS(Long-Term Service)를 통해 장기 서비스 지원을 꿈꾸는 기업을 대상으로 하둡을 리눅스에서 설치하면서 자연스럽게 기업이 요구하는 운영체제 및 개발 환경을 구축할 수 있도록 돕고 있습니다. 동일한 환경 내에 이클립스나 인텔리전트를 사용하도록 도움으로써, 당장 빅데이터를 다루는 데이터 과학의 꿈을 실현시키는 데 함께 이바지하도록 하는 좋은 시간이 될 것입니다.

우분투는 윈도우 운영체제의 설치 및 운영과
비슷한 환경, 즉 GUI(그래픽 유저 인터페이스)
환경을 통해 사용자를 돕고 있죠.

이런 분들께 추천드려요!

🎓
학습 대상은
누구일까요?
빅데이터의 기초를 처음부터 배우고자 하는 열공생
빅데이터 원리와 적용에 목말라하시는 분
데기업의 빅데이터를 다루고자 하둡을 배우고 싶은 분들
자바에 기초 지식이 있으신 분들
📚
선수 지식,
필요할까요?
The Concept of Big Data (빅데이터 이해)
가상머신
데이터 셋 용어
리눅스 이해(Ubuntu)
자바 15

안녕하세요
Billy Lee 입니다.
Billy Lee의 썸네일

네오아베뉴 대표 빌리 리 입니다.

2020년 센터니얼 칼리지 Software Eng. Technician 졸업한 열공생이자 한국에서는 9년의 IT 경력 소유자로 금융권 (재무, 금융 프로젝트 및 빅데이터 관련 ) 에 다수 근무했습니다.

1999년 필리핀 (Dasmarinas) 지역에서 P.T.S. 네트워크 엔지니어링 자원 봉사자로 1년 근무했습니다.

이후 2000년 한국으로 돌아와 K.M.C.에서 Clarion 4GL 언어로 Warehouse Inventory Control and Management 그리고 PIS Operational Test PCS C/C++ 개발했었습니다.

2001년 LG-SOFT SCHOOL 자바 전문가 과정 이수 후 CNMTechnologies 에서 e-CRM/e-SFA R&D 연구 및 개발 2년 정도 (한국산업은행/대정정부청사/영진제약) 하였습니다.

2004년부터 2012년 캐나다로 올 때까지 SKT/SK C&C (IMOS), SC제일은행(TBC), 프로덴션 생명(PFMS), 교보생명 AXA Kyobo Life Insurance Account Management, Kook-min Bank 국민은행 Financial Management Reconstruction NGM외 다수 프로젝트에 참여했습니다.

 

2012년 연말에 캐나다에 거주하면서 세 아이의 아빠이자 Scrum Master로서 에자일 개발 방식을 채택하여 핸디맨 어플/이커머스 어플/프로덱트 개발/레시피 어플 개발한 미주 캐나다 지역의 실경험자입니다.

커리큘럼 총 85 개 ˙ 6시간 39분의 수업
이 강의는 영상, 수업 노트, 첨부 파일이 제공됩니다. 미리보기를 통해 콘텐츠를 확인해보세요.
섹션 0. 빅 데이터란 과연 무엇인가?
섹션 1. 빅 데이터 기술은 기업들에게 왜 중요한 것인가?
빅 데이터 기술을 찾아나선 풍경 미화 미리보기 02:55
앞다퉈 빅데이터를 다루는 기업들은 얼마나 많은가? 02:09
섹션 2. 하둡 탄생과 그 배경
섹션 3. 하둡의 네 가지 기본 핵심 모듈(컴포넌트)은 무엇에 쓰는 도구인가?
하둡의 네 가지 컴포넌트 혹은 핵심 모듈(핵심 기술) 나열하기 미리보기 02:55
핵심 모듈[1]-하둡의 공통 모듈-Hadoop Common Module 08:15
핵심 모듈[2]-하둡 분산 처리 파일 시스템 모듈(Hadoop Distributed File System)-HDFS Module 03:58
핵심 모듈[3]-맵리듀스 모듈-MapReduce Module 04:25
핵심 모듈[4]-얀 모듈-YARN Modules 03:03
섹션 4. HDFS(하둡 분산 처리 시스템) - 하둡의 핵심 기술 내부 아키텍쳐
하둡 아키텍쳐 기본 구조 - Hadoop version 1.x and 2.x - HDFS High Availability and Federation (HDFS 고 가용성과 연합) 05:15
하둡 아키텍쳐 기본 구조 - Hadoop version 2.x and 3.x (I) - Java, Fault Tolerance, Data Balancing, Storage Scheme, Storage Overhead 08:49
하둡 아키텍쳐 기본 구조 - Hadoop version2.x and 3.x (II)- YARN Timeline Service v2, Scalability, Default Port Range, Compatible File System, Name Node Recovery 06:54
하둡 아키텍쳐 핵심 요소[1] - 마스터 슬레이브 테크놀로지 구조 02:35
하둡 아키텍쳐 핵심 요소[2]- 복제 관리 매커니즘(Replication management) 01:56
하둡 아키텍쳐 핵심 요소[3]- 렉 인지 (Rack Awareness) 06:01
하둡 아키텍쳐 핵심 요소[4]- Read/Write Architecture 08:23
섹션 5. 하둡 제너럴[1] : 하둡 설치 [1] - 가상 머신의 이해와 설치하기
하둡 설치에 대한 순서 이해하기
내 PC에 가상화 지원하기 위한 사전 작업 해보기
가상화 기술에 대한 이해하기 - 가상 머신 02:33
버추얼 박스(VirtualBox 6.1.8. ) 설치 요령 (확장판 다운로드 포함) 01:58
버추얼박스 설정 (Preferences)에서 확장판 패키지 파일 추가하기 02:14
섹션 6. 하둡 제너럴[2] : 하둡 설치[2] - Hadoop 3.2.1 설치하기
버추얼박스 위에 Ubuntu 20.04 LTS 연결하여 설치해보자!! 06:19
사전 작업[1] - 유분트 터미널에서 SSH/PDSH 공개키 설치 및 bashrc 파일 등록 05:41
사전 작업[2] - 우분투 터미널에서 자바 1.8 설치 및 자바 환경 세팅 구축 04:40
유분트 터미널로 하둡 3.2.1 다운로드 및 하둡 환경 세팅[1] 미리보기 02:45
우분투 터미널에서 하둡 3.2.1 환경 세팅[2] - 네 가지 xml 하둡 환경 설정과 네임노드 및 포멧 하둡 서비스 실행 07:11
섹션 7. 하둡 제너럴[3] : 하둡 파일 시스템 쉘 명령어 (Hadoop File System Shell Commands)
하둡 기본 명령어 구조와 규약 미리보기 03:38
하둡 명령어 - FS(Files System) Shell : ls , mkdir , touchz 07:16
하둡 명령어 - FS(Files System) Shell : put, copyFromLocal, get, copyToLocal 05:26
하둡 명령어 - FS(Files System) Shell : cat, mv 02:18
하둡 명령어 - FS(Files System) Shell : cp, rm, chmod 05:44
하둡 스몰 프로젝트(우분투 로컬시스템 데이터를 하둡 시스템으로 로딩해보기) 03:51
섹션 8. 하둡 제너럴[4]- 하둡 공통 명령어들 (Hadoop Common Commands)
하둡 공통 명령어 : 사용자 명령어(User Commands)[1] - archive, checknative, classpath, conftest, credential 06:23
하둡 공통 명령어 : 사용자 명령어(User Commands)[2] - distcp, fs, jar, kerbname, kdiag, version, envvars 08:00
섹션 9. 얀의 아이디어 (MR3 on YARN) : MapReduce (맵리듀스)
얀 위에 실행되는 맵리듀스 세 가지 한계 이론(Three Theory in MapReduce on YARN) 03:21
얀 위에 실행되는 맵리듀스와 그 고정 사이즈 청크들 (Fix-sized Chunk in MapReduce on YARN) 02:49
하둡 맵리듀스 모듈 프레임워크 개요 (Hadoop MapReduce Module Framework Overview) 03:10
섹션 10. 얀 디 아이디어 (YARN THE IDEA) : YARN (Yet Another Resource Negotiator)
얀 디 아이디어 이전 맵알 1 (MR v1 : Previous YARN THE IDEA) 03:21
앰알1의 한계와 얀 디 아이디어 탄생 (The limitation of MR 1 and YARN THE IDEA's Birth) 04:55
얀의 페러다임과 맵리듀스 어플리케이션 분할(YARN Paradigm : the Division between YARN and MapReduce) 03:22
YARN 어플리케이션 수행 해부 (Anatomy of A YARN Application Run) 05:30
얀 위에 맵리듀스 프레임워크에 대하여 (About MapReduce Framework On YARN) 02:55
얀의 세가지 스케쥴 옵션 : The FIFO, Capacity, Fair Scheduler (Three Scheduler Options in YARN) 08:53
얀의 리소스매니저 역할 : 스케쥴러와 어플리케이션 매니저 (The Responsibility of Resource Manager on YARN - The Scheduler and The Application Manager) 03:15
섹션 11. 맵리듀스 튜토리얼 (기본편) : MapReduce Tutorial Series (Basic Course) - 하둡에서 제공하는 예제 워드카운트로 맵리듀스 구현하기 (MapReduce Wordcount Application)
맵리듀스 예제로 만드는 워드 어플리케이션 제작 이론편 (The Theory of Map/Reduce WordCount Application) 미리보기 01:30
맵리듀스 예제로 구현하는 워드 어플리케이션 실전편 (Implement Map/Reduce WordCount Application I) 05:02
하둡 웹 UI에서 구현된 맵리듀스 예제로 워드 어플리케이션 확인 (Open Map/Reduce Wordcount Application on Hadoop WebUI) 03:58
섹션 12. 맵리듀스 튜토리얼 (초급편) : 파이썬 언어로 맵리듀스 구현해보기 - MapReduce Tutorial Series ( Intermediate Course) - Implement Mapper and Reducer in the Wordcount MapReduce Application
맵 단계 구현 이론편 ( Theory Mapper Python in the Wordcount MapReduce Application) 07:53
우분투 파일시스템 상에 파이썬으로 맵 단계 구현하기 실전편 (Implement Mapper Python in the Wordcount MapReduce Application) 03:21
리듀스 단계 구현 이론편 ( Theory Reducer Python in the Wordcount MapReduce Application) 09:17
리듀스 단계 구현 총괄 프로세스 이론편 ( About Theory of Whole Mapper Process Python in the Wordcount MapReduce Application) 09:56
리듀스 단계 구현 실전편 ( Implement Mapper Python in the Wordcount MapReduce Application) 01:53
우분투 로컬 시스템에서 파이썬 맵퍼와 리듀서 소스 구현 Mock 모의 테스트 실전편 ( Mock test Mapper.py and Reducer.py Python source in the Wordcount MapReduce Application) 02:48
하둡 분산 파일 시스템에서 파이썬 맵퍼와 리듀서 소스 구현 실전편 ( Build Mapper.py and Reducer.py in the Wordcount MapReduce Application) 08:00
섹션 13. 맵리듀스 튜토리얼 (중급편) : MapReduce Tutorial Series with Java Language (Expert Course) - 이클립스에서 하둡 환경 세팅과 자바 설정
자바 15 버전으로 이클립스 설정 (Installation and Configuration Eclipse for Hello Word Application in Java) 11:44
이클립스 IDE 환경에서 자바 JDK 15 설정 및 헬로우 어플리케이션 제작 (Installation and Configuration Eclipse for Hello Word Application in Java) 05:46
이클립스에서 자바 JDK 1.8 와 하둡 라이브러리 다섯가지 설정 (Setup JDK 1.8 and Hadoop Library in Wordcount Application for MapReduce in Java using Eclipse) 07:44
섹션 14. 맵리듀스 튜토리얼 (중급편) : MapReduce Tutorial Series with Java Language (Expert Course) - 맵리듀스 구현하기 위한 자바 코딩 길들이기
기본 개념 세 가지 '클래스' ,'패키지','임포트' (Three Concept of Class, Package, Import Keyword in Wordcount Application for MapReduce in Java using Eclipse) 03:12
'클래스' ,'패키지','임포트' 소스 구현 (How to implement Wordcount Application for MapReduce in Java using Eclipse with Class, Package, Import keyword) 08:41
맵 단계(Map class) 구현 내 '맵리듀스베이스' 클래스 그리고 '맵퍼' 인터페이스 이해하기 (Understanding MapReduceBase Class, Mapper Interface in Map Class in the WordCount Application for MapReduce in Java using Eclipse) 02:50
맵리듀스 구현에 필요한 자바의 여덟가지 키워드 : static, extends with MapReduceBase 04:44
맵리듀스 구현에 필요한 자바의 여덟가지 키워드 : hadoop interface Mapper<k1, v1, k2, v2> with 'implement' keyword in java language 04:53
맵리듀스 구현에 필요한 자바의 여덟가지 키워드 : final 키워드 (final keyword with few data types in Java along with the equivalent Hadoop variant) 04:15
맵리듀스 구현에 필요한 자바의 여덟가지 키워드 : void, throws keyword 04:23
맵리듀스 구현에 필요한 자바의 여덟가지 키워드 : new , while 키워드 03:34
자바 언어로 맵 단계 리듀스 단계 구현 제작 실전편 (Map Class for the WordCount Application in Java using Eclipse) 04:37
섹션 15. 맵리듀스 튜토리얼 (고급편) : 자바 언어로 ebook WordCount 맵 단계 리듀스 단계 구현 제작 실전편
이클립스에 하둡 3.2.1 플러그인 연동 - Integration of the Hadoop 3.x Eclipse Plugin in Eclipse using Ubuntu 04:38
이클립스에서 HDFS 새로운 하둡 디렉토리 생성와 파일 복사해보기 02:25
이클립스 IDE 툴을 이용하여 WordCount v2.0 맵리듀스 프로젝트 생성하고 log4j 프로퍼리 연동 02:38
하둡 3.2.1 플러그 연동된 이클립스에서 맵리듀스 어플리케이션 구현 - 맵 단계인 맵퍼 클래스 코딩 구현 (how to create Mapper Class using Eclipse) 10:18
하둡 3.2.1 플러그 연동된 이클립스에서 맵리듀스 어플리케이션 구현 - 리듀스 단계인 리듀서 클래스 코딩 구현 (how to create Mapper Class using Eclipse) 04:41
하둡 플러그인 연동된 이클립스 IDE에서 WordDriver 클래스 구현하여 WordCount 맵리듀스 어플리케이션 로딩(Loading WordCount Application with Loading WordDriver Class in Java using Eclipse) 06:15
빈 데이터 계산된 워드카운트 어플리케이션 추가 프로젝트 구현
섹션 16. 맵리듀스 튜토리얼 (고급편) : MapReduce Tutorial Series (Advanced Course)
캐나다 코빅 19 일별 데이터 조회 어플리케이션 프로젝트 13 단계 개발 과정 소개 - Build The Project Covid 19 Maxmum Case per day Hadoop MapReduce Application using Maven
캐나다 코빅 19 일별 데이터 조회 어플리케이션 프로젝트 생성 - Create Project Covid 19 Maxmum per day Hadoop MapReduce Application 01:57
Pom.xml와 함께 하는 마븐 프로젝트란 무엇인가요 그리고 어떻게 사용하는가? - What is Maven and How maven using pom.xml works? 01:25
pom.xml 파일 추가하여 캐나다 코빅-19 일별 데이터 조회 어플리케이션 마븐 프로젝트에 Log4j 추가하기 - Add pom.xml and Log4j in the Covid-19 Maximum Case MapReduce Application 03:04
캐나다 코빅19 2020-20201년 4월 기준 일별로 비교하여 데이터 업로딩 - Uploading Public Health Infobase Data on COVID-19 in Canada to HDFS 05:24
캐나다 코빅 19 일별 집계 데이터 어플리케이션 구현 단계 중 코비드매퍼 클래스 소스 분석 - CovidMapper Class Analysis in the Canada Covid 19 Maxmium Case MapReduce Application 04:54
캐나다 코빅19 일별로 비교하여 데이터 조회 어플리케이션 구현 (2020-20201년 4월 기준) - 맵퍼 단계 구현 11:47
캐나다 코빅19 2020-20201년 4월 기준 일별로 비교하여 데이터 조회 어플리케이션 추출 09:08
강의 게시일 : 2021년 05월 27일 (마지막 업데이트일 : 2022년 01월 29일)
수강평 총 30개
수강생분들이 직접 작성하신 수강평입니다.
4.6
30개의 수강평
5점
4점
3점
2점
1점
VIEW 추천 순 최신 순 높은 평점 순 낮은 평점 순 평점 순 높은 평점 순 낮은 평점 순
김태경 thumbnail
5
하둡 입문자에게 좋네요. 책보기 전에 먼저 학습하기 딱 좋은듯 합니다.
2021-10-03
지식공유자 Billy Lee
네 좋은 평가 감사합니다. 하둡을 처음 접하는 입문자에게는 현재 시중에 나와있는 책들을 통해 따라가기 쉽지 않습니다. 그 점에서 저의 강의는 김태경님의 평가처럼 책을 구매하기 전 학습하면서 단일노드에서 하둡과 HDFS, YARN 어플리케이션 실행시키는 점을 부각시켰습니다. 효과가 있다면 감사합니다. 더 좋은 강의로 다시 뵙죠. 부디 하둡 전문가로 성장하기를 기대합니다.
2021-10-13
성실한개발자 thumbnail
5
장점: 하둡 맵리듀스 기초를 배울 수 있다. 한국어로 된 유일한 하둡 강의인 듯 아쉬운 점: 맵퍼를 두개 사용해서 하나의 공통 키로 추출하거나 키를 두개 쓰는 경우 , 컴퍼레이터를 직접 설정하는 방법 등 궁금했던 내용이 없어서 아쉬웠다. 단점: 강사님 한국어 발음이 명확하지 않은데 배경음악이 커서 여러번 무슨 말을 하는건지 다시 들어야했다. --------------------------------------- 선생님 답변 보고 별점 5로 수정합니다.
2021-10-19
지식공유자 Billy Lee
친절히 자세한 평가 감사합니다. 하둡의 이론은 방대하여 모든 일에 손을 댈수가 없다고 말할 수 있네요. 저의 강의를 듣고 하둡 전체를 이해하기는 더더욱 힘들죠. 배경음악을 제거한 뒤 선명한 목소리로 재녹음하였으니 재수강 고맙겠습니다. 업데이트한 강의도 있으니 고요한 시간에 들으시면서 하둡 전문가로 남기를 기대합니다.
2022-01-14
이훈태 남자 thumbnail
5
하둡 강의 정말 좋았습니다 ! 스파크 강의도 열렸으면 좋겠습니다. 감사합니다 !
2021-09-27
지식공유자 Billy Lee
이 강의를 통해 하둡을 좀더 친근하게 다가서는 계기가 되길 기대합니다. 또한 스파크 강의가 여러분에게 전달되기를 기대합니다. 하둡 전문가되길 토론토에서 응원합니다.
2021-10-04
eer3v thumbnail
4
좋은 강의 좋습니다. 다만 강의 앞뒤로 붙은 의미없는 장면이 사운드가 너무 크고 너무 깁니다. 매번 소리땜시 강의듣을때 놀라네요. 그리고 강의 중간에 들리는 배경음도 좀 거슬리는거같아요 이런 부분은 안넣는게 좋을꺼같습니다
2021-10-28
지식공유자 Billy Lee
ㅎㅎ.. 죄송하네요. 놀라기도 하였다니 드디어 2020년 배경음악과 인트로들을 제거하여 정확인 음질로 다시 돌아왔으니 처음부터 들으시면서 하둡 프로그램을 맞보시길 바랍니다. 토론토에서 응원합니다.
2022-01-14
Billy Lee thumbnail
5
이 강의는 빅데이터를 다루는 하둡 전문가로 양성하고 싶은 마음에서 강의를 제작했습니다. 클라우데라와 같은 종합적인 온 프로메스 배포 소프트웨어 어플리케이션(On-Premise Distribution Software: OPD)을 사용하기 보다는 직접 하둡을 처음부터 설치하고 데이터셋을 추출하고 이동 및 로드하는 단계로 여러분을 이동시킬 것입니다. 1.x 버전부터 시작된 하둡은 이제 3.3 버전까지 많은 기능들이 추가되면서 무척 해비한 플랫폼이 되었지만 많은 도구들을 다루며 빅데이터 전문가로 양성되는 마음이 넘치는 강의되기를 바랍니다.
2021-06-18