대세는 쿠버네티스 ^o^ [초급~중급]
대세는 쿠버네티스 ^o^ [초급~중급]
수강정보
(87개의 수강평)
1184명의 수강생
55,000원
지식공유자 : 김태민
59회 수업 · 총 10시간 6분 수업
기간 : 평생 무제한 시청
수료증 : 발급 강의
수강 난이도 : 초급
김태민의 다른 강의 연관 로드맵
아직 다른 강의가 없어요
연관 로드맵이 없어요
BrownK 프로필

host <-> pod 간 통신 default 값 질문드립니다! BrownK 1일 전
안녕하십니까! 강의를 되새겨 보며 k8s설치를 진행하다, 문의 사항이 있어 또 질문드립니다. 사실 회사에서는 OpenShift라는 솔루션을 사용하고 있어, k8s의 개념과 기본 사용법 정도를 익혀서 업무에 써보기만 했었는데, 테스트 삼아 vm3대에 설치를 해보다 보니 영 헤매네요. 질문은 다음과 같습니다. 1. k8s 설치 시 node(worker/master 모두)에서 각 내부의 pod 기본 접근 허용 여부 worker 노드 worker01, worker 노드 worker02가 구성되어 있을 때, worker01에 pod01을, worker02에 pod02를 배포한다면 worker01에서 pod02는 기본적으로 접근이 불가능한지요? worker01에서 pod01 ping, worker02에서 pod02 ping은 제대로 응답을 받을 수 있으나, worker01->pod02. worker02->pod01은 ping응답을 받을 수가 없네요. "k8s에서는 모든 pod는 배포된 node에 상관없이, pod간 통신은 가능하다"고 알고 있는데(따로 network policy적용안했을때), node <-> pod간 통신은 default가 어떤것인지요? pod가 배포된 node에서만 통신이 가능한 것인지, 배포된 node포함 전체 node에서도 pod가 통신이 가능한 것인지요? node간은 서로 ping신호가 가는 것을 확인했는데, 위 사항이 궁금합니다. 테스트를 위해 CNI는 calico를 설치했습니다. 2. k8s dashboard는 master node에만 배포해야 하는지요? dashboard 설치 후 dashboard pod가 계속 crashloopbackoff 나서, 구글링을 하다보니 "master node에만 배포해야 한다"는 언급을 보았습니다. dashboard pod의 deployment를 보니 따로 master로 지정해두지 않은 것으로 보이고, 공식 문서에도 관련 내용이 없는데 dashboard pod는 master node에만 배포 가능한게 맞나요? https://kubernetes.io/ko/docs/tasks/access-application-cluster/web-ui-dashboard/ 위 주소의 dashboard배포 가이드를 수행하였습니다. 설치된 것만 가지고 사용만 하다 한번 설치해보려니 헤매고 있네요. 혹 괜찮으시다면 도움 부탁 드리고 싶습니다. 강의 감사합니다!

1
최창우 프로필

프로메테우스 모니터링 관련 최창우 3일 전
강의 정말 잘 듣고 있습니다. 우선 감사드려요~~ 혹시 프로메테우스 설치 및 이에 따른 HPA 연동 그리고 프로메테우스를 통한 모니터링을 어떤식으로 할 수 있으며, 어떤 정보들을 모니터링 할 수 있는지, 어떤 기능들이 있는지 (사실 요 부분이 더 궁금한 포인트..) 이런 전체적인 모니터링 관점에서의 강의도 한번 진행해주실수 있을까요?

1
arbepr 프로필

Dashboard 권한부여하다가.. arbepr 3일 전
마스터 노드에서 아래 명령어 실행하다가 오타내서 뭔가 잘못된것 같은데요.. 다시 설정하는 방법 있을가요. cat <<EOF | kubectl create -f - > apiversion: rbac.authorization.k8s.io/v1beta1 > kind: ClusterRoleBinding > metadata: >   name: kubernetes-dashboard >   labels: >     k8s-app: kubernetes-dashboard >   roleRef: >     apiGroup: rbac.authorization.k8s.io >     kind: ClusterRole >     name: cluster-admin >   subjects: >   - kind: ServiceAccount >     name: kubernetes-dashboard >     namespace: kube-system > EOF error: error validating "STDIN": error validating data: apiVersion not set; if you choose to ignore these errors, turn validation off with --validate=false 다시 실행하니 이미 kubernetes-dashboard 가 있다고 나오는데요. Error from server (AlreadyExists): error when creating "STDIN": clusterrolebindings.rbac.authorization.k8s.io "kubernetes-dashboard" already exists

1
kyunghyun Cho 프로필

case5 세팅 질문 kyunghyun Cho 4일 전
안녕하세요. 아직 모르는게 많은 개발자지망생입니다ㅎㅎ  mac(catalina, 10.15.6버전)에서 virtualbox(6.1.10)으로 강사님께서 올려주신 case5(https://kubetm.github.io/practice/appendix/installation_case5/#site-nav)를 보면서 환경세팅을 하고 있었는데 궁금한점이 있어서 질문드립니다.  4 - 2) Congif Node 까지는 문제없이 가이드를 보면서 진행하였는데, 5-1-1) 도커 및 쿠버네티스 실행 에 있는  docker run hello-world 명령어가 제대로 동작하지 않는 문제가 발생했습니다.  아무래도 인터넷이 제대로 연결이 안되서 그러는거 같은데, 계속 원인을 찾아보다가  아래 사진과 같이  systemctl restart NetworkManager systemctl restart network    명령어들을 치고나니 제대로 docker이미지를 받아오는것을 확인할수 있었습니다.  3- 1 -2) 방화벽 해제 부분에서  아래의 명령어로 NetworkManager를 비활성화해서 가상머신을 부팅할때마다 인터넷연결이 끊어지는거 같은데  그 이유가 맞을까요 ??  systemctl stop NetworkManager && systemctl disable NetworkManager 그리고 위의 명령어를 사용해서 NetworkManager를 비활성화하는 이유는 무엇인지 궁금합니다!!

2
이원준 프로필

k8s 환경 설정 중 오류 발생합니다 -> Failed to execute operation: Cannot send after transport endpoint shutdown 이원준 6일 전
https://kubetm.github.io/practice/appendix/installation_case4/ 여기서 k8s 환경 설정중에 오류가 발생합니다. systemctl enable --now kubelet 을 하면 Failed to execute operation: Cannot send after transport endpoint shutdown 이 발생하네요. 버추얼박스에 bridge 형태로 구성하였고 v1.19 설치에 docker는 최신버전 설치했습니다. 나머지는 모두 나와있는 그대로 진행하였습니다.

1
김세웅 프로필

calico 관련 에러 질문이 있습니다. 김세웅 7일 전
안녕하세요. 강의 듣는 중에 calico 세팅 관련 하여 질문이 있어서 이렇게 글을 남깁니다. 최근 재 설치하여 세팅중 calico-node 3개가 0/1 running 상태에서 변경이 되지 않아 데시보드등 네트워크 장애가 있었습니다.  개발환경은 centos7 kvm으로 k8s-maste, k8s-node1, k8s-node2 이렇게 3개를 운영 하고 있었습니다. describe와 logs 확인 하니 calico는 passive나 connection을 유지하지 못하는 상황 이었고 log상 kvm의 gateway인 192.168.122.1을 찾지 못하며 BGP 에러가 나는 현상 이었습니다 ex 2020-09-22 01:19:07.547 [INFO][40] int_dataplane.go 964: Applying dataplane updates 2020-09-22 01:19:07.547 [INFO][40] route_table.go 237: Queueing a resync of routing table. ipVersion=0x4 2020-09-22 01:19:07.548 [INFO][40] int_dataplane.go 978: Finished applying updates to dataplane. msecToApply=0.574591 bird: BGP: Unexpected connect from unknown address 192.168.122.1 (port 45379) bird: BGP: Unexpected connect from unknown address 192.168.122.1 (port 59634) 2020-09-22 01:19:08.677 [INFO][40] int_dataplane.go 964: Applying dataplane updates 2020-09-22 01:19:08.677 [INFO][40] ipsets.go 223: Asked to resync with the dataplane on next update. family="inet" 2020-09-22 01:19:08.677 [INFO][40] ipsets.go 306: Resyncing ipsets with dataplane. family="inet" 2020-09-22 01:19:08.680 [INFO][40] ipsets.go 356: Finished resync family="inet" numInconsistenciesFound=0 resyncDuration=2.502771ms 2020-09-22 01:19:08.680 [INFO][40] int_dataplane.go 978: Finished applying updates to dataplane. msecToApply=2.851582 bird: BGP: Unexpected connect from unknown address 192.168.122.1 (port 44854) bird: BGP: Unexpected connect from unknown address 192.168.122.1 (port 53230) bird: BGP: Unexpected connect from unknown address 192.168.122.1 (port 51304) bird: BGP: Unexpected connect from unknown address 192.168.122.1 (port 47870) bird: BGP: Unexpected connect from unknown address 192.168.122.1 (port 43583) bird: BGP: Unexpected connect from unknown address 192.168.122.1 (port 37291) bird: BGP: Unexpected connect from unknown address 192.168.122.1 (port 51945) bird: BGP: Unexpected connect from unknown address 192.168.122.1 (port 37215) 한 이틀 고생하고 확인해보니 host의 virbr0 인터페이스가 internal 존에 들어가있지 않아서 발생한 문제더군요. (정확히는 엑티브 상태가 아니었습니다) 하지만 엑티브 되지 않은 상태에서도 IP할당이나 Host에서 node로 ping호출도 되고 Node간 핑도 정상인데 host firewall에서 엑티브 시키지 않았다고 저렇게 통신 에러가 나는게 이해가 안되서 질문 드립니다. 혹시 답변을 받을수 있을까요?

1
진희 프로필

제가 다른환경에서 접속하려고 하는데요 진희 10일 전
제가 원래 무선랜으로 네트워크 설정해서 쓰고있었는데 다른환경에서 접속하기위해서 쿠버네티스 실행시켰고 마스터서버에서 호스트네임 등록해주는것도  /etc/hosts에서 다 바꿨는데  kubectl 실행이 안됩니다.. kubectl version 이라고 해보면 버전은 잘 뜨지만 밑에 이런식으로 뜹니다. 어떻게 설정을 해야하나요??  Unable to connect to the server: dial tcp 192.168.100.116:6443: connect: no route to host

1
hj.lee 프로필

Node 추가 이후 문제 hj.lee 12일 전
안녕하세요 추가로 올려 주시는 강의도 잘 보고 있습니다. 제가 한동안 공부를 쭉 하다 추가 강의 올라오면서 다시 보기 시작하는데... 이번에 셋팅했던 클러스터에 노드를 한나 더 추가 했습니다.  두달정도 잘 운영되고 있던 시스템에 노드만 추가 한것이죠 그런데 노드도 잘 붙고 Ready 상태로 잘 도는데 서비스가 배포가 되고 열리지가 않아서 확인해보니 이번에 추가된 노드의 calico 파드가 이와 같이 정상적으로 실행 되지 않고 있었습니다. 강좌의 calico.yaml 파일도 데몬셋 지우고 다시 올려도 해당 노드의 켈리코 파드만 이와 같은 문제가 생기는데 제가 어떻게 문제를 해결 하면 좋을지 조언 부탁 드립니다.

3
ca2606 프로필

session login 오류 ca2606 17일 전
case2 으로 설치중인데요, 2-2-1) CentOS 설치 후 3-1-1) SELinux 설정 로 넘어가려 하는도중에, ssh에서 login as : 가 뜨지 않습니다. 무선 공유기 이용하는 상태이구요. ip도 192.168.219.1로 잘 따져있는데 원인을 모르겠습니다. 사진 첨부합니다.

1
배현규 프로필

강의자료실에 오타가 있습니다. 배현규 25일 전
E-3) LimitRange yaml 파일의 apiVersion: v1 가 빠졌습니다.

1
yoooooojun 프로필

Ingress 관련 질문이 있습니다. yoooooojun 26일 전
안녕하세요. 강사님.  제가 Ingress 관련 강의 + Service 관련 내용을 수강하다 잘 안되는 부분이 있어서 이렇게 질문을 올립니다. 강의중 nginx를 이용하여 reverse proxy를 사용하는 부분이 있는데, 다른 부분은 잘 되는데, 이상하게 Master node에서만 curl 호출이 안됩니다. 다른 worker들은 제대로 실행이되는데 왜 Master node에서만 실행이 안되는 것일까요? 그리고 이전에도 로드밸런서가 아닌 nodeport 서비스에서도, Cluster IP를 통한 서비스에서도 master node에서만 해당 ip:port에 접속되지 않았습니다. 왜 이런 것인지 답변 부탁드리겠습니다. 항상 감사합니다.  아래는 clusterip 예제입니다.(curl 10.100.26.162:9000/hostname 입력했을 때) 1. master node  2. 4개의 worker nodes 참고로 제 개발환경은 aws ec2 ubuntu 18.04 master-node 1 worker 4 kubeadm으로 클러스터 구성 입니다. 

3
추순호 프로필

[문의] storageOS Dashboard 접속 불가 추순호 26일 전
- Volume 실습,  1-2) StroageOS 설치 Dashboard 접속을 위한 Service 수정 master ip 추가 Dashboard 접속시 안되며,storageos namespace 상태는 아래와 같습니다.(혹시나 해서 node ip로 변경 접속해보니 dashboard가 접속됨) - http://192.168.56.30:5705 접속불가- http://192.168.56.31:5705 접속가능- http://192.168.56.32:5705 접속가능어디를 확인해 봐야 할까요 ? [root@k8s-master ~]# kubectl get all -n storageosNAME                                       READY   STATUS    RESTARTS   AGEpod/storageos-daemonset-qzk89              1/1     Running   0          54mpod/storageos-daemonset-rx2kh              1/1     Running   0          54mpod/storageos-scheduler-6b8b66d8d7-rnvvx   1/1     Running   0          54m NAME                TYPE        CLUSTER-IP     EXTERNAL-IP     PORT(S)    AGEservice/storageos   ClusterIP   10.104.21.69   192.168.56.30   5705/TCP   54mNAME                                 DESIRED   CURRENT   READY   UP-TO-DATE   AVAILABLE   NODE SELECTOR   AGEdaemonset.apps/storageos-daemonset   2         2         2       2            2           <none>          54m NAME                                  READY   UP-TO-DATE   AVAILABLE   AGEdeployment.apps/storageos-scheduler   1/1     1            1           54m NAME                                             DESIRED   CURRENT   READY   AGEreplicaset.apps/storageos-scheduler-6b8b66d8d7   1         1         1       54m

7
김교희 프로필

대쉬보드 문제 김교희 28일 전
안녕하세요. 위처럼 자꾸 CrashLoopBackoff가 되며 Restarts하는 것들이 많습니다. 또한, 노드를 다 올렸는데도,  이런 에러가 나서, 대쉬보드가 안올라오네요.. 이유를 알 수 있을까요? 참고로 아래 정보 드립니다. [root@k8s-master ~]# ip addr 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000     link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00     inet 127.0.0.1/8 scope host lo        valid_lft forever preferred_lft forever     inet6 ::1/128 scope host        valid_lft forever preferred_lft forever 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1460 qdisc mq state UP group default qlen 1000     link/ether 42:01:0a:aa:00:02 brd ff:ff:ff:ff:ff:ff     inet 10.170.0.2/32 brd 10.170.0.2 scope global dynamic eth0        valid_lft 2416sec preferred_lft 2416sec     inet6 fe80::4001:aff:feaa:2/64 scope link        valid_lft forever preferred_lft forever 3: docker0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN group default     link/ether 02:42:2d:a2:2e:59 brd ff:ff:ff:ff:ff:ff     inet 172.17.0.1/16 brd 172.17.255.255 scope global docker0        valid_lft forever preferred_lft forever 4: tunl0@NONE: <NOARP,UP,LOWER_UP> mtu 1440 qdisc noqueue state UNKNOWN group default qlen 1000     link/ipip 0.0.0.0 brd 0.0.0.0     inet 20.108.82.192/32 brd 20.108.82.192 scope global tunl0        valid_lft forever preferred_lft forever 5: calied26a64eb57@if4: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1440 qdisc noqueue state UP group default     link/ether ee:ee:ee:ee:ee:ee brd ff:ff:ff:ff:ff:ff link-netnsid 0     inet6 fe80::ecee:eeff:feee:eeee/64 scope link        valid_lft forever preferred_lft forever [root@k8s-master ~]# ps -ef|grep proxy root      1661  1599  3 13:15 ?        00:02:28 kube-apiserver --advertise-address=10.170.0.2 --allow-privileged=true --authorization-mode=Node,RBAC --client-ca-file=/etc/kubernetes/pki/ca.crt --enable-admission-plugins=NodeRestriction --enable-bootstrap-token-auth=true --etcd-cafile=/etc/kubernetes/pki/etcd/ca.crt --etcd-certfile=/etc/kubernetes/pki/apiserver-etcd-client.crt --etcd-keyfile=/etc/kubernetes/pki/apiserver-etcd-client.key --etcd-servers=https://127.0.0.1:2379 --insecure-port=0 --kubelet-client-certificate=/etc/kubernetes/pki/apiserver-kubelet-client.crt --kubelet-client-key=/etc/kubernetes/pki/apiserver-kubelet-client.key --kubelet-preferred-address-types=InternalIP,ExternalIP,Hostname --proxy-client-cert-file=/etc/kubernetes/pki/front-proxy-client.crt --proxy-client-key-file=/etc/kubernetes/pki/front-proxy-client.key --requestheader-allowed-names=front-proxy-client --requestheader-client-ca-file=/etc/kubernetes/pki/front-proxy-ca.crt --requestheader-extra-headers-prefix=X-Remote-Extra- --requestheader-group-headers=X-Remote-Group --requestheader-username-headers=X-Remote-User --secure-port=6443 --service-account-key-file=/etc/kubernetes/pki/sa.pub --service-cluster-ip-range=10.96.0.0/12 --tls-cert-file=/etc/kubernetes/pki/apiserver.crt --tls-private-key-file=/etc/kubernetes/pki/apiserver.key root      1680  1605  1 13:15 ?        00:01:22 kube-controller-manager --allocate-node-cidrs=true --authentication-kubeconfig=/etc/kubernetes/controller-manager.conf --authorization-kubeconfig=/etc/kubernetes/controller-manager.conf --bind-address=127.0.0.1 --client-ca-file=/etc/kubernetes/pki/ca.crt --cluster-cidr=20.96.0.0/12 --cluster-signing-cert-file=/etc/kubernetes/pki/ca.crt --cluster-signing-key-file=/etc/kubernetes/pki/ca.key --controllers=*,bootstrapsigner,tokencleaner --kubeconfig=/etc/kubernetes/controller-manager.conf --leader-elect=true --node-cidr-mask-size=24 --requestheader-client-ca-file=/etc/kubernetes/pki/front-proxy-ca.crt --root-ca-file=/etc/kubernetes/pki/ca.crt --service-account-private-key-file=/etc/kubernetes/pki/sa.key --use-service-account-credentials=true root      1963  1922  0 13:15 ?        00:00:03 /usr/local/bin/kube-proxy --config=/var/lib/kube-proxy/config.conf --hostname-override=k8s-master root      3786  2440  0 14:07 pts/1    00:00:00 kubectl proxy --port=8001 --address=10.170.0.2 --accept-hosts=^*$ root      4343  3806  0 13:37 ?        00:00:00 /usr/libexec/gsd-screensaver-proxy root     25421 16253  0 14:28 pts/0    00:00:00 grep --color=auto proxy [root@k8s-master ~]# kubectl version Client Version: version.Info{Major:"1", Minor:"15", GitVersion:"v1.15.5", GitCommit:"20c265fef0741dd71a66480e35bd69f18351daea", GitTreeState:"clean", BuildDate:"2019-10-15T19:16:51Z", GoVersion:"go1.12.10", Compiler:"gc", Platform:"linux/amd64"} Server Version: version.Info{Major:"1", Minor:"15", GitVersion:"v1.15.12", GitCommit:"e2a822d9f3c2fdb5c9bfbe64313cf9f657f0a725", GitTreeState:"clean", BuildDate:"2020-05-06T05:09:48Z", GoVersion:"go1.12.17", Compiler:"gc", Platform:"linux/amd64"}

4
김교희 프로필

kubectl 명령어 수행하려면. 김교희 28일 전
1. kubectl 명령어 수행하는 방법 안녕하세요 현재 GCP에서 centos7 vm하나 올리고, 쿠버네티스 노드도 올려서 실습을 진행하고 있습니다. centos7서버에서 curl을 통해 서비스 확인해봤는데요. kubectl명령어 사용하려면 yum으로 패키지를 설치만하면 될까요..? 어떤 과정이 필요한지 모르겠습니다. 2. 그리고 gcp에서 강사님의 방법대로 하면 default로 노드 3개가 생기는데 이 노드들 중 마스터는 없는건가요? 3. 또한, 이런 환경에서 지금 실습을 계속진행해도 문제없는지도 궁금합니다. 감사합니다.

1
young hun song 프로필

kubernetes director node? young hun song 28일 전
안녕하세요 강사님. 좋은 강의 덕분에 기본 개념을 잡게되어 감사합니다. 강의 외적인 것인데, 물어볼 곳이 없어 혹시나 하는 마음으로 질문을 적어봅니다...  고객사에서 한다리 건너 팀에서 쿠버네티스를 사용하고있는데, 여기는director라는 node를 사용합니다.  구글링해봐도, director node를 검색해도 안나오고, 고객사에 여쭤봐도  자세히는 모르는 눈치였습니다.  (master를 이용해서 worker를 만드는 것처럼, director를 이용해서 master를 만든다고 합니다.) 혹시 director node에 관련해서 어떤 것을 찾아봐야할지 궁금합니다.  느낌상은 master의 master(director)를 만든 거 같은 느낌이긴 한데.. 요런 구성을 보신적이 있으신지 궁금합니다. 

1
지식공유자 되기
많은 사람들에게 배움의 기회를 주고,
경제적 보상을 받아보세요.
지식공유참여
기업 교육을 위한 인프런
“인프런 비즈니스” 를 통해 모든 팀원이 인프런의 강의들을
자유롭게 학습하는 환경을 제공하세요.
인프런 비즈니스