
AWS(Amazon Web Service) 입문자를 위한 강의
Sungmin Kim
요즈음 회사 및 다양한 프로젝트에서 종종 사용되는 AWS 서비스들의 핵심 이론을 배우며 뿐만 아니라 함께 따라하는 실습을 통하여 AWS를 온전히 내것으로 만들자!
입문
AWS, cloud-computing, cloud-platform
AWS入門者、中級/上級者のための講義をすべて受講したにもかかわらず、まだ何か不足していると感じますか? AWS 実践のための講義がまさにそのような方のための講義です。
Apache Airflow
AWS Batch
AWS ECR
AWS Athena
AWS Glue
実戦中心! AWS アプリケーションの完成版。
🤔 AWS入門者/中上級者講義を終えたが、まだ1%が足りないようです。
😎 AWSショーケースを通じて会社で昇進を狙っています。
😀AWSが提供するリソースでさまざまなパイプラインを構築したいです。
🥺 AWSの様々な使い方を体験してみたいです。
🤓クラウドの世界にもっと深く陥りたいです。
👉 AWSシリーズの終着駅!あなたの悩みに解決策を提示します。
AWS実践編のための講義は、まずAWS入門者、 中級/上級者のための講義を愛してくださる皆さんがいらなかったらできませんでした。皆さんの熱烈な応援と支持のおかげでこの講義ができたとしても過言ではありません。
このレッスンは、エンジニアが現業でどのようにAWSを使用してETLパイプライン構築、ドッカーコンテナ、Airflowスケジューラを構築するのかを間接的に体験できるように構成されています。タイトルでわかるように、概念の整理は最小限に抑え、実習中心に進みます。
1つのセクションごとのクラスの長さは短くて30分、長くて1時間かかります。グンダーダーはすべて除いて重要な内容だけを入れて属性で皆さんに伝えるためです。
AWSを素早く応用して使いたい方、AWS入門者のための講義を聞き、より深くクラウドを掘り下げてみたい方に強くお勧めします。
講義制作の過程で気になる部分の1つはトラブルシューティング(Troubleshooting)セクションです。私がAWSを回す環境(オペレーティングシステム、環境設定など)はあなたと常に同じではありません。だから私はよく戻っても皆さんはエラーが浮かぶ部分があると思います。すべてのエラーをすべて説明することは不可能ですが、しばしば発生するエラーを集め、どのようにあなたが直接問題解決をすることができるかについての悩みをたくさんしてみました。それで、そのセクションを作ることになりました。
講義を作るとき、「私はうまくいきますが、他の人たちはこのようなエラーが発生しませんか?」という考えを持ち、その時その可能性の高い例外状況を整理し、それに対する解決策を皆さんに提示します。
だから、学習後は...
本講義は実習90%、理論10%で構成されています。したがって、選手の知識はAWS入門者のための講義です。 中級/上級者のための講義はオプションであり、実戦編のための講義と一緒に視聴しても無理はありません。
AWS 実践編の講義は AWS シリーズの終着役です。実戦編を頑張ったからといって、AWSのすべてをすべて理解するとは言えません。しかし、今後AWSを使用し、新しいスキルを学ぶ際に大きな助けになると確信しています。
シリーズ選手コースをチェックしてください。
AirflowをAWSで回すことはできますか?はい。 AWS と Airflow を一緒に使用して、AWS リソースの助けを借りて、より幅広いパイプラインを構築できます。
(1) インスタンス作成後に Airflow を回すのに必要なパッケージをインストールします。
(2)Airflowデータベースを作成してユーザーを作成します。
(3) Airflow DAG を実行します。
バッチジョブとキューを作成し、ECRにプッシュしたイメージを実行する練習をします。 AWS Batch は入門者、中級/上級者の講義で扱われていないため、このセクションで簡単に紹介します。
(1) ドッカーイメージを保存する ECR リポジトリを作成します。
(2) ドッカー画像を作成し、ECR リポに画像をプッシュします。
(3)バッチジョブ(Job)とキュー(Queue)を作成してジョブを実行します。
AWSリソース(S3、Glue、Athena)を使用して簡単なETLパイプラインを構築します。
(1)ローデータが入るバケットを作成し、データを保持するAthenaデータベースを作成します。
(2)Glue Crawlerを作成してローデータを抽出します。
(3) Athenaでデータ検証過程を経ます。
Q. この講義を聞かなければならない理由は何ですか?
今では、IT産業だけでなく、さまざまな場所でクラウドが言及され使用されています。クラウドインフラストラクチャは現在、実生活から離れなければならない。ビッグデータ時代に住んでいる私たちは、毎日多数のデータを生成、処理、分析します。これは決して誰もがすることはできません。クラウドの助けを借りてください。 AWSはまさにその役割を担います。
AWSの実践のためのレッスンは、実際の現業でよく使われるアーキテクチャをいくつか紹介し、あなたがしたがって実践できる講義で構成されています。練習に従い、なぜここでこのようなリソースが使用され、より良い方法がないのか、自分で質問を投げながら講義に従うことをお勧めします。クラウドに正解はありません。ただ、より良い方法が存在するだけです。与えられた環境であなたはより良い方法を探求し見つけなければなりません。この講義はその方法を支援します。
Q. 非専攻者も聞くことができますか?
もちろんです。コンピュータの専攻者でなくてもAWSクラウドの経験がある場合は、十分に受講できます。
💡選手の知識と注意事項
学習対象は
誰でしょう?
AWS入門者、中級/上級者講義を修了した方
AWSさまざまなリソースを使用してパイプラインを構築したい人
AWSの幅広い用途を体験したい方
前提知識、
必要でしょうか?
Python
クラウドの基本知識
AWS
5,969
受講生
293
受講レビュー
156
回答
4.7
講座評価
5
講座
안녕하세요. 저는 학부와 석사를 미국에서 나왔으며 전공은 각각 Computer Science, Data Science를 공부하였습니다. 현재 저는 Healthcare쪽 회사의 데이터 엔지니어로 일하고 있습니다. 매일 제가 하는 일을 간단하게 말씀드리자면; AWS와 Airflow를 사용하여 매일 데이터를 불러와 ETL과정을 거치며, 데이터가 잘 들어오는지 모니터링하면서 문제점 혹은 개선의 여지가 필요한 경우 프로그램을 구현하는 일을 하고 있습니다. 데이터 모니터링은 주로 AWS의 CloudWatch와 Splunk라는 프로그램을 사용하고 있습니다.현재 제가 회사에서 사용하고 있는 기술들은 Python, AWS, SQL 등등이며 최근에는 GCP로 Migration하고 있는 추이이며 AWS와 GCP를 동시에 접하고 있습니다.
2022년에는 회사에서 거의 80%의 데이터 및 파이프라인이 GCP로 Migration을 마쳤으며 Bigquery & GCS & GKE쪽을 심오하게 다루고 있습니다. 물론 Docker Container & Terraform사용으로 전반적인 IaC 작업도 병행해서 진행하고 있습니다.
데이터 엔지니어로 일하면서 가장 크게 느낀점은 다음과 같습니다. 매일 새로운 기술들의 등장으로 인해 지금 내가 사용하고 있는 기술들이 과연 obsolete해질까? 그렇다면 그 이유는 무엇인가? 정말 그 기술이 이걸로 대처될 수 있는가? 단점은 없는 것인가? 그렇습니다. 저 모든 질문들에 대한 답변을 찾는것은 매우 힘들어 보입니다. 그러나 그 과정을 겪으면서 한가지 공통점이 보였습니다. 깊게 들어가보면 거의 대동소이 하다는 것입니다. 다시 말해 하나를 제대로 파헤친다면 다른 기술을 배우는 것은 많이 용이해진다는 것이죠. 저는 이런 메카니즘을 강의에서도 종종 언급을 하고 싶습니다. 여러분들과 함께 제가 현재 가지고 있는 모든 지식들을 공유하고 싶습니다. 여러분들의 길잡이가 될 수 있도록 최선을 다하겠습니다.
저 사이먼킴은 여러분들께 재미있고 이해하기 쉬운 강의를 선보일꺼에요. 여러분들과 끊임없이 소통하면서 더 나은 사람이 될 것을 약속드리구요. 여러분들의 실력이 향상되는것을 지켜보는 것은 저의 큰 행복입니다.
全体
17件 ∙ (1時間 42分)
講座資料(こうぎしりょう):
1. ようこそ
04:24
2. EC2インスタンスの作成
03:55
3. Packagesのインストール
10:06
4. 環境変数を更新する
07:04
5. ユーザーを作成する
02:52
6. Airflowを実行する
05:43
7. AWS Batch
03:38
8. 練習コード Walkthrough
04:06
9. ECRリポジトリの作成
03:28
10. ドッカー画像を作成する
05:28
12. ジョブを作成する
06:54
¥5,729
知識共有者の他の講座を見てみましょう!
同じ分野の他の講座を見てみましょう!