49,500원
다른 수강생들이 자주 물어보는 질문이 궁금하신가요?
- 미해결쉽게 시작하는 쿠버네티스(v1.25)
드라이브 주소 문의
안녕하세요 강사님, 주소는 현재 강의 밑부분에 넣어주신다고 하셨는데 URL을 찾을 수가 없습니다. 다시 한 번 올려주시면 감사하겠습니다.
- 미해결쉽게 시작하는 쿠버네티스(v1.25)
구버네티스 랩환경 관련 가상머신 root 패스워드
[질문 전 답변]1. 강의에서 다룬 내용과 관련된 질문인가요? [예 | 아니요]2. 인프런의 질문 게시판과 자주 하는 질문에 없는 내용인가요? [예 | 아니요]3. 질문 잘하기 법을 읽어보셨나요? [예 | 아니요](https://www.inflearn.com/blogs/1719)4. 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요.[질문 하기] 구버네티스 랩환경 관련 가상머신 root 패스워드 어떻게 됩니까
- 미해결쉽게 시작하는 쿠버네티스(v1.25)
강의 그대로 했지만 접속이 안됩니다..ㅠ
[질문 전 답변]1. 강의에서 다룬 내용과 관련된 질문인가요? [예 | 아니요]2. 인프런의 질문 게시판과 자주 하는 질문에 없는 내용인가요? [예 | 아니요]3. 질문 잘하기 법을 읽어보셨나요? [예 | 아니요](https://www.inflearn.com/blogs/1719)4. 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. [질문 하기] 강의에서 진행된 코드대로 그대로 따라갔는데도 192.168.1.101:31067로 접근이 안되네요ㅠ 어디서 문제가 발생한걸까요..
- 미해결쉽게 시작하는 쿠버네티스(v1.25)
cgroupdriver/systemd 관련
안녕하세요. 현재 깃에서 vagrant 파일을 받아 up을 하던 중 cgroup driver가 systemd가 아니라는 에러가 발생했습니다. vagrant up이 cgroup driver 관련해서 멈출때마다 각 vm에 접속하여 vi /usr/lib/systemd/system/docker.service 내부에 systemd 내용을 추가하고 접속종료하는 방법으로 진행했습니다. 마스터, 워커노드들이 설치됐고, 서로 내외부 통신도 확인했습니다. kubectl get nodes 명령어 입력시 마스터에서는 host:6443 was refused 에러가 발생합니다. 노드에서는 localhost:8080 was refused로 뜹니다. netstat 명령어로 확인해본 결과 8080, 6443 포트는 올라와있지 않은 상태이며 docker ps -a 명령어 입력해서 api 서버는 돌아가고 있는 상태임을 확인했습니다. 제 생각에는 vagrant up 명령어 실행시 cgroup 관련 내용이 나와서 멈출때마다 내부적으로 문제가 발생하는게 아닌가 추측하고 있습니다. 마스터 노드부터 제대로 생성되지 않아 에러들이 연속적으로 발생하는 것 같은데, vagrant up 시 자동으로 빌드과정에서 cgroupfs를 systemd로 바꾸는 방법이 있는지 궁금합니다. 인프런 "vagrant up 시 cgroups 에러" 질문에 대해 쓰신 답변 내용 중, v1.22부터는 systemd를 사용하도록 설정하는 부분을 추가하여 사용 한다고 적으셨는데, vagrantfile 내부 확인해본 결과 k8s_V = "1.20.2"라고 적혀있는 것과 연관있는지도 궁금합니다. 그리고 systemd를 사용하도록 설정하는 부분 추가하는 방법도 잘 모르겠습니다. 아직 개념정리가 되질않아 질문내용을 두서없이 작성한점 양해 부탁드립니다. 감사합니다.
- 미해결쉽게 시작하는 쿠버네티스(v1.25)
supperputty와 비슷한 mobaxterm
저는 맥으로 수업을 듣지만 회사에서는 윈도우를 이용하는데..수퍼푸티와 비슷한 mobaXTerm 툴도 괜찮은 것 같아서 의견남깁니다 ! 수퍼푸티와 비슷하게 각 세션정보를 손쉽게 저장해주고 무료더라구요 ㅎㅎ 그리고 무엇보다 좀 예쁩니당 ㅎ.ㅎ
- 미해결쉽게 시작하는 쿠버네티스(v1.25)
vm 종료 후
[질문 전 답변]1. 강의에서 다룬 내용과 관련된 질문인가요? [예 | 아니요]2. 인프런의 질문 게시판과 자주 하는 질문에 없는 내용인가요? [예 | 아니요]3. 질문 잘하기 법을 읽어보셨나요? [예 | 아니요](https://www.inflearn.com/blogs/1719)4. 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요.[질문 하기] 안녕하세요, 컴퓨터를 껐다 켜면서 vm이 꺼졌었는데요, VM을 다시 켜도 node들이 종료된 상태더라구요. 각 노드들에 대해서 실행을 누르니까 네트워크 오류가 나는데요, 설정 > 네트워크 > 어댑터1은 NAT, 어댑터2는 내부네트워크로 하니 돌아는 갑니다. 그런데 expose를 하니 외부에서 서비스 접근이 안되던데요, 혹시 제가 네트워크 설정을 잘못한게 있을까요? VM 재기동 이후에는 어떤식으로 설정을 해줘야 할까요?
- 미해결쉽게 시작하는 쿠버네티스(v1.25)
수업 흐름과 동일하게 했는데 연결 거절 됩니다.
[질문 전 답변]1. 강의에서 다룬 내용과 관련된 질문인가요? [예]2. 인프런의 질문 게시판과 자주 하는 질문에 없는 내용인가요? [예 ]3. 질문 잘하기 법을 읽어보셨나요? [예 | 아니요](https://www.inflearn.com/blogs/1719)4. 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요.[질문 하기] 수업과 동일한 흐름으로 진행했습니다. 근데 해당 IP로 연결 거부를 당해서 nginx를 띄울 수 없습니다. 세부정보보기에서 하라는 것들을 진행해봤는데 안되네용..
- 미해결쉽게 시작하는 쿠버네티스(v1.25)
트러블 슈팅 질문입니다.
안녕하세요! 다름아니라 쿠버네티스를 통해서 파드를 잘사용하고 있었는데 갑자기 kubectl get pod 시 아래와 같은 내용이 발생했습니다. kubelet 문제일까 싶어서 확인해봤는데 정확히 어떤문제인지 파악이 어려워서요.. 이런 상황일때 혹시 제가 추가적으로 확인해봐야할 내용이 있을까요?? systemctl daemon-reload systemctl restart kubelet 진행해봐도 똑같습니다. --flag 문제일지도 모른다고 생각해서 /var/lib/kubelet/kubeadm-flags.env에서 --network-plugin=cni 를 제거하고 kubelet 재시작을 해보아도 똑같았습니다. journalctl -u kubelet
- 미해결쉽게 시작하는 쿠버네티스(v1.25)
nginx pod는 워커노드 2에 있는데 1번, 3번 워커노드에서도 웹접속이 되는 이유가?
안녕하세요. 강의 잘 듣고 있습니다. 외부(PC)에서 접속을 하기 위해 expose 명령어를 사용하였습니다.(2.2 강좌) 궁금한건 kubectl get pod -o wide 명령어에 대한 출력은 nginx가 w2-k8s(워커노드 2번)에 있다고 나오는데, 워커노드 1번, 2번, 3번으로 웹접속을 시도해도 동일하게 nginx 화면이 나옵니다. nginx가 없는 워커노드 1번, 3번으로의 웹접속이 가능한 이유가 뭔가요?
- 미해결쉽게 시작하는 쿠버네티스(v1.25)
마스터 노드의 Kublet 의 역할은 무엇인가요?
안녕하세요 조훈님. 쿠버네티스의 개념과 기초를 공부하기 위해 강의를 수강중입니다!다름아니라, 궁금증이 생겨 질문드립니다. 강의 영상에서 kubelet에 문제가 생겻을때 어떻게 되나 를 보고 있던 와중에, 워커노드에서는 kubelet에 문제가 생겼을때 배포가 이뤄지지 않는걸 확인했는데, 마스터노드에서는 도커 런타임에 문제가 생기지 않는 이상, kubelet에 문제가 생겨도 배포가 제대로 이뤄지는걸 확인했습니다. 그렇다면 마스터노드에서 kubelet의 역할은 무엇인가요??
- 미해결쉽게 시작하는 쿠버네티스(v1.25)
LB 설치 관련
좀.. 쓸데없는 질문이긴 한데.. 강의내용을 보면 LB 기능을 하는 별도의 프로그램(?)을 먼저 설치하고 해당 LB 기능을 이용하는데 혹시 쿠버네티스에서 기본으로 제공하는 LB가 있는지요? 그리고 만약 LB 기능을 하는 별도의 프로그램을 설치하지 않은 상태에서 LB 구성을 한다면 어떤 error 메시지가 나오는지도.. 살짝 궁금하긴 합니다. 별도로 가이드가 나오는것이지.. 예를들어 '먼저 LB 기능을 업데이트(또는 설치)후에 구성하세요' 라던지... 하는 문구가 있을까요?
- 미해결쉽게 시작하는 쿠버네티스(v1.25)
Scale 관련 질문 드립니다.
문의 드립니다. scale을 통하여 pod를 늘렸을 때 사용자가 실수로 scale된 pod를 삭제하면 자동으로 설정된 scale 값을 유지하기 위해 다시 생성 되나요? 다른 질문은 scale 을 통하여 복제된 pod는 최초 생성된 pod를 복제하는 부분인가요? 아니면 최초 생성된 pod의 이미지를 가지고 생성되는 것인가요? 예를들어 최초 pod생성 후 해당 pod에 변경사항이 있는 상태에서 scale out 시 변경상태가 적용된 pod가 복제되는 것인지, 아니면 최초 pod를 생성한 이미지로 (변경사항 적용안된..) Scale out이 되는것인지 궁금합니다.
- 미해결쉽게 시작하는 쿠버네티스(v1.25)
로드밸런서와 노드포트가 왜 웹브라우저에서는 부하분산이 안 될까요?
안녕하세요. 노드포트/로드밸런서 부분 질문드립니다. 노드포트 생성 후 간단한 nginx파드 2개를 생성 후 연동해주었는데 웹브라우저에서 새로고침시, 한 쪽으로만 트래픽이 가게됩니다. curl 로 http://publicIP:30080(노드포트넘버) 해줬을때는 골고루 부하분산이 되거든요. 노드포트 문제인가, 해서 로드밸런서 생성 후 로드밸런서로 해도 마찬가지입니다. curl만 갑니다. 왜 꼭 웹브라우저에서 테스트 할 때만 부하분산이 안 될까요?
- 미해결쉽게 시작하는 쿠버네티스(v1.25)
vagrant up시 에러가 발생합니다.
ㅛ 해당 에러가 발생하여 ssh 에접속후 yum update -y 로 yum을 업데이트하면 해당에러는 해결되는데요. 문제는 또다른에러가발생합니다. 이 에러에 대해서 찾아봤지만 도무지 해결책을찾을수 없어서 질문드립니다.
- 미해결쉽게 시작하는 쿠버네티스(v1.25)
vagrant up 시 에러(kubeadm init)
[질문 전 답변]1. 강의에서 다룬 내용과 관련된 질문인가요? [예 | 아니요]2. 인프런의 질문 게시판과 자주 하는 질문에 없는 내용인가요? [예 | 아니요]3. 질문 잘하기 법을 읽어보셨나요? [예 | 아니요](https://www.inflearn.com/blogs/1719)4. 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요.[질문 하기] '1.2. 코드로 쉽게 구성하는 쿠버네티스 랩 환경' 과정 진행 중 vagrant up 에서 에러가 발생하였습니다. 관련하여 도움을 받을 수 있는 부분이 있을까 하여 문의드립니다. 1. 워커 노드가 구성되는 과정에서 다음 에러가 발생하면서 vagrant 실행이 중단되는 것을 보았습니다. https://192.168.1.10:6443/api/v1/namespaces/kube-public/configmaps/cluster-info?timeout=10s": dial tcp 192.168.1.10:6443: connect: connection refused [로그] ----------------------------------------------- w1-k8s-1.20: Dependency Installed: w1-k8s-1.20: conntrack-tools.x86_64 0:1.4.4-7.el7 w1-k8s-1.20: cri-tools.x86_64 0:1.23.0-0 w1-k8s-1.20: kubernetes-cni.x86_64 0:0.8.7-0 w1-k8s-1.20: libnetfilter_cthelper.x86_64 0:1.0.0-11.el7 w1-k8s-1.20: libnetfilter_cttimeout.x86_64 0:1.0.0-7.el7 w1-k8s-1.20: libnetfilter_queue.x86_64 0:1.0.2-2.el7_2 w1-k8s-1.20: socat.x86_64 0:1.7.3.2-2.el7 w1-k8s-1.20: Complete! w1-k8s-1.20: Created symlink from /etc/systemd/system/multi-user.target.wants/docker.service to /usr/lib/systemd/system/docker.service. w1-k8s-1.20: Created symlink from /etc/systemd/system/multi-user.target.wants/kubelet.service to /usr/lib/systemd/system/kubelet.service. ==> w1-k8s-1.20: Running provisioner: shell... w1-k8s-1.20: Running: C:/Users/sunba/AppData/Local/Temp/vagrant-shell20220504-9152-agv56t.sh w1-k8s-1.20: [preflight] Running pre-flight checks w1-k8s-1.20: [WARNING IsDockerSystemdCheck]: detected "cgroupfs" as the Docker cgroup driver. The recommended driver is "systemd". Please follow the guide at https://kubernetes.io/docs/setup/cri/ w1-k8s-1.20: error execution phase preflight: couldn't validate the identity of the API Server: Get "https://192.168.1.10:6443/api/v1/namespaces/kube-public/configmaps/cluster-info?timeout=10s": dial tcp 192.168.1.10:6443: connect: connection refused 2. 위 내용을 확인한 이후 마스터 노드가 구성될때의 로그를 확인 시 다음 에러가 먼저 발생했던 것으로 확인하였습니다. [ERROR ImagePull]: failed to pull image k8s.gcr.io/etcd:3.4.13-0: output: 3.4.13-0: Pulling from etcd filesystem layer verification failed for digest sha256:6937ebe10f0225ac2ef529a733a02d46829421411fb9e33145f19d4026d75478 kubeadm init 실행 중에 발생한 것 같은데, VM 에 직접 접속하여 동일한 명령을 실행했을 시에도 같은 에러를 확인할 수 있었습니다. 해당 과정이 정상적으로 진행되지 않아 이후 내용에서 에러가 발생하는 것으로 판단하고 있습니다. [로그] ----------------------------------------------- ==> m-k8s-1.20: Running provisioner: shell... m-k8s-1.20: Running: C:/Users/sunba/AppData/Local/Temp/vagrant-shell20220504-9152-1vs2oye.sh m-k8s-1.20: I0504 21:41:56.350942 3297 version.go:251] remote version is much newer: v1.24.0; falling back to: stable-1.20 m-k8s-1.20: [init] Using Kubernetes version: v1.20.15 m-k8s-1.20: [preflight] Running pre-flight checks m-k8s-1.20: [WARNING IsDockerSystemdCheck]: detected "cgroupfs" as the Docker cgroup driver. The recommended driver is "systemd". Please follow the guide at https://kubernetes.io/docs/setup/cri/ m-k8s-1.20: [preflight] Pulling images required for setting up a Kubernetes cluster m-k8s-1.20: [preflight] This might take a minute or two, depending on the speed of your internet connection m-k8s-1.20: [preflight] You can also perform this action in beforehand using 'kubeadm config images pull' m-k8s-1.20: error execution phase preflight: [preflight] Some fatal errors occurred: m-k8s-1.20: [ERROR ImagePull]: failed to pull image k8s.gcr.io/kube-apiserver:v1.20.15: output: v1.20.15: Pulling from kube-apiserver m-k8s-1.20: 0d7d70899875: Pulling fs layer m-k8s-1.20: d373bafe570e: Pulling fs layer m-k8s-1.20: bd216676f0c7: Pulling fs layer m-k8s-1.20: 0d7d70899875: Verifying Checksum m-k8s-1.20: d373bafe570e: Verifying Checksum m-k8s-1.20: d373bafe570e: Download complete m-k8s-1.20: bd216676f0c7: Verifying Checksum m-k8s-1.20: filesystem layer verification failed for digest sha256:bd216676f0c74b2c08653aefec1786b044600c23e9c0bfec66a1471d9e202153 m-k8s-1.20: , error: exit status 1 m-k8s-1.20: [ERROR ImagePull]: failed to pull image k8s.gcr.io/kube-controller-manager:v1.20.15: output: v1.20.15: Pulling from kube-controller-manager m-k8s-1.20: 0d7d70899875: Pulling fs layer m-k8s-1.20: d373bafe570e: Pulling fs layer m-k8s-1.20: 65c97745feee: Pulling fs layer m-k8s-1.20: d373bafe570e: Verifying Checksum m-k8s-1.20: 0d7d70899875: Verifying Checksum m-k8s-1.20: 0d7d70899875: Download complete m-k8s-1.20: 0d7d70899875: Pull complete m-k8s-1.20: 65c97745feee: Verifying Checksum m-k8s-1.20: filesystem layer verification failed for digest sha256:65c97745feeedee0d01b9c4c903e0bc020557314cea66e08076290358687651b m-k8s-1.20: , error: exit status 1 m-k8s-1.20: [ERROR ImagePull]: failed to pull image k8s.gcr.io/kube-scheduler:v1.20.15: output: v1.20.15: Pulling from kube-scheduler m-k8s-1.20: 0d7d70899875: Pulling fs layer m-k8s-1.20: d373bafe570e: Pulling fs layer m-k8s-1.20: f178a26415ce: Pulling fs layer m-k8s-1.20: 0d7d70899875: Verifying Checksum m-k8s-1.20: 0d7d70899875: Download complete m-k8s-1.20: d373bafe570e: Verifying Checksum m-k8s-1.20: d373bafe570e: Download complete m-k8s-1.20: 0d7d70899875: Pull complete m-k8s-1.20: f178a26415ce: Verifying Checksum m-k8s-1.20: d373bafe570e: Pull complete m-k8s-1.20: filesystem layer verification failed for digest sha256:f178a26415ceb0f8201c78c9629b92b299f198324f498f96d3d8c614ae7c2fcd m-k8s-1.20: , error: exit status 1 m-k8s-1.20: [ERROR ImagePull]: failed to pull image k8s.gcr.io/kube-proxy:v1.20.15: output: v1.20.15: Pulling from kube-proxy m-k8s-1.20: 20b09fbd3037: Pulling fs layer m-k8s-1.20: be5cda1e916d: Pulling fs layer m-k8s-1.20: be5cda1e916d: Verifying Checksum m-k8s-1.20: filesystem layer verification failed for digest sha256:be5cda1e916d7a8a6ae0d561d3d18bd3daf5fe4a45cc8a998aa0c12a0794782d m-k8s-1.20: , error: exit status 1 m-k8s-1.20: [ERROR ImagePull]: failed to pull image k8s.gcr.io/etcd:3.4.13-0: output: 3.4.13-0: Pulling from etcd m-k8s-1.20: Get https://k8s.gcr.io/v2/etcd/manifests/sha256:bd4d2c9a19be8a492bc79df53eee199fd04b415e9993eb69f7718052602a147a: tls: invalid certificate signature m-k8s-1.20: , error: exit status 1 m-k8s-1.20: [ERROR ImagePull]: failed to pull image k8s.gcr.io/coredns:1.7.0: output: 1.7.0: Pulling from coredns m-k8s-1.20: c6568d217a00: Pulling fs layer m-k8s-1.20: 6937ebe10f02: Pulling fs layer m-k8s-1.20: c6568d217a00: Verifying Checksum m-k8s-1.20: c6568d217a00: Download complete m-k8s-1.20: c6568d217a00: Pull complete m-k8s-1.20: 6937ebe10f02: Verifying Checksum m-k8s-1.20: filesystem layer verification failed for digest sha256:6937ebe10f0225ac2ef529a733a02d46829421411fb9e33145f19d4026d75478 m-k8s-1.20: , error: exit status 1 m-k8s-1.20: [preflight] If you know what you are doing, you can make a check non-fatal with `--ignore-preflight-errors=...` m-k8s-1.20: To see the stack trace of this error execute with --v=5 or higher VirtualBox 와 vagrant 를 강의와 동일한 버전으로 재설치하고 vagrant destory / vagrant up 을 실행하는 등을 시도해보았으나 동일한 에러가 발생하였습니다. 원인을 확인하기가 어려워 혹시 해결방안이 있는지 알고 싶습니다
- 미해결쉽게 시작하는 쿠버네티스(v1.25)
docker limit 으로 이미지를 못 받아올 때는 어떻게 하는 게 좋나요?
이미지를 받아올 때 docker limit 제한이 걸릴 때가 있습니다. 이를 해결하기 위한 방법이 있을까요?
- 미해결쉽게 시작하는 쿠버네티스(v1.25)
pods를 통해서 서비스 접속이 안되는 이유가 궁금합니다.
[질문 전 답변]1. 강의에서 다룬 내용과 관련된 질문인가요? [예 | 아니요]2. 인프런의 질문 게시판과 자주 하는 질문에 없는 내용인가요? [예 | 아니요]3. 질문 잘하기 법을 읽어보셨나요? [예 | 아니요](https://www.inflearn.com/blogs/1719)4. 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요.[질문 하기] 안녕하세요. 강의에서는 kubectl get pods -o wide에서 나온 172.16.221.129를 브라우저를 통해서 웹서비스에 접속이 되는데, 제가 실제 접속을 시도하면은 접속이 안됩니다. kubectl get nodes -o wide명령어를 통해서 나온 ip로는 접속이 되는데, 왜 pods로 생긴 ip로는 웹서비스에 접속이 안되는걸가요 강의에서는 아래 명령어만 열어주셔서 NodePort만 열는어주신것 같은데, pod도 포트를열어주어야 되는건가요? kubectl expose pods nginx --type=NodePort --port=80
- 미해결쉽게 시작하는 쿠버네티스(v1.25)
실습환경구성/구조 문의
뒷 부분 3.2, 3.3 강의에서 설명을 해주시네요. 질문은 남겨 놓겠습니다. 실습 환경으로 vm 4개가 만들어지게 되는데요, 마스터노드1개와 워커노드3개 구성으로 보입니다.구성된 실습환경에 대해 한 번 설명을 해주셨으면 좋겠습니다. - 노드 4개가 클러스터 구성이고 마스터노드의 역할 등- 구성해두신 쿠버네티스에 대해 pod 와 오브젝트들에 대한 설명 등
- 미해결쉽게 시작하는 쿠버네티스(v1.25)
kubelet과 API 서버 사이의 동작방식
안녕하세요! 이번 강의와 앞선 쿠버네티스 구조 부분을 듣다가 의문이 생기는 부분이 있어 질문드립니다! 이번 강의에서 kubelet은 API 서버와 선언적인 방식으로 동작하지 않기 때문에 kubelet에 문제가 생긴다면 시스템 전체에 문제가 생길 수 있다고 하셨는데, 앞선 쿠버네티스 구조 부분에서는 강사님께서 kubelet이 API 서버가 선언한 부분을 읽어서 컨테이너 런타임에게 컨테이너를 만들어주라고 명령하는 방식으로 파드가 생성된다고 하셔서 kubelet과 API 서버 사이의 동작방식에 대해 약간 헷갈려서 질문 드립니다! kubelet이 API 서버가 선언적인 방식으로 동작하지 않는 것이 맞는지, 맞다면 둘 사이에서는 어떤 방식으로 동작하는 것인지 궁금합니다! 정말 좋은 강의로 매일매일 쿠버네티스 공부가 즐거운 것 같습니다 앞으로도 좋은 강의 부탁드립니다😀
- 미해결쉽게 시작하는 쿠버네티스(v1.25)
vagrant 설정 오류
[질문 전 답변]1. 강의 내용과 관련된 질문인가요? [예 | 아니요]2. 인프런의 질문 게시판과 자주 하는 질문에 없는 내용인가요? [예 | 아니요]3. 질문 잘하기 법을 읽어보셨나요? [예 | 아니요](https://www.inflearn.com/blogs/1719)4. 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요.[질문 하기] 강사님께서 공유해주신 git에서 다운 받은 파일로 vagrant를 설정하는 도중에 다음과 같은 오류가 발생 했습니다. 내용 문의 드립니다. m-k8s-1.20: [kubelet-check] Initial timeout of 40s passed. m-k8s-1.20: m-k8s-1.20: Unfortunately, an error has occurred: m-k8s-1.20: timed out waiting for the condition m-k8s-1.20: m-k8s-1.20: This error is likely caused by: m-k8s-1.20: - The kubelet is not running m-k8s-1.20: - The kubelet is unhealthy due to a misconfiguration of the node in some way (required cgroups disabled) m-k8s-1.20: m-k8s-1.20: If you are on a systemd-powered system, you can try to troubleshoot the error with the following commands: m-k8s-1.20: - 'systemctl status kubelet' m-k8s-1.20: - 'journalctl -xeu kubelet' m-k8s-1.20: m-k8s-1.20: Additionally, a control plane component may have crashed or exited when started by the container runtime. m-k8s-1.20: To troubleshoot, list all containers using your preferred container runtimes CLI. m-k8s-1.20: m-k8s-1.20: Here is one example how you may list all Kubernetes containers running in docker: m-k8s-1.20: - 'docker ps -a | grep kube | grep -v pause' m-k8s-1.20: Once you have found the failing container, you can inspect its logs with: m-k8s-1.20: - 'docker logs CONTAINERID' m-k8s-1.20: m-k8s-1.20: error execution phase wait-control-plane: couldn't initialize a Kubernetes cluster m-k8s-1.20: To see the stack trace of this error execute with --v=5 or higher OS : windows 10 virtualbox : 6.1 vagrant : last release