55,000원
다른 수강생들이 자주 물어보는 질문이 궁금하신가요?
- 미해결대세는 쿠버네티스 [초급~중급]
질문 있습니다!
기본적으로 생성된 Service Account는 별도의 Role / Role Binding 설정 없이 해당 토큰(Post Man)을 사용해서 모든 자원에 접근이 가능했었습니다. Service Account는 기본적으로 어떤 Role과 연결이 될까요?
- 미해결대세는 쿠버네티스 [초급~중급]
kubeadm init시 connection refuse에러
환경은 AWS 환경이며, 실습환경과 똑같은 아이피로 해서centos 7으로 동일하게 구성하고 있습니다(제 커널버전은 Linux 3.10.0-1160.76.1.el7.x86_64)그런데 마지막에 kubeadm init 하는데 connection refused 이 뜨며 진행이 되지 않습니다.해당 에러 발생시 daemon.json을 확인하라는 내용이 있던데(구글링시) 이상이 없었습니다.아래는 전체로그 입니다.회신 주시면 감사드리겠습니다.[root@k8s-master centos]# kubeadm init --pod-network-cidr=20.96.0.0/12 --apiserver-advertise-address=192.168.0.30I0827 06:11:16.046030 2520 version.go:248] remote version is much newer: v1.25.0; falling back to: stable-1.15[init] Using Kubernetes version: v1.15.12[preflight] Running pre-flight checks[WARNING SystemVerification]: this Docker version is not on the list of validated versions: 20.10.17. Latest validated version: 18.09[preflight] Pulling images required for setting up a Kubernetes cluster[preflight] This might take a minute or two, depending on the speed of your internet connection[preflight] You can also perform this action in beforehand using 'kubeadm config images pull'[kubelet-start] Writing kubelet environment file with flags to file "/var/lib/kubelet/kubeadm-flags.env"[kubelet-start] Writing kubelet configuration to file "/var/lib/kubelet/config.yaml"[kubelet-start] Activating the kubelet service[certs] Using certificateDir folder "/etc/kubernetes/pki"[certs] Generating "etcd/ca" certificate and key[certs] Generating "etcd/server" certificate and key[certs] etcd/server serving cert is signed for DNS names [k8s-master localhost] and IPs [192.168.0.30 127.0.0.1 ::1][certs] Generating "etcd/healthcheck-client" certificate and key[certs] Generating "apiserver-etcd-client" certificate and key[certs] Generating "etcd/peer" certificate and key[certs] etcd/peer serving cert is signed for DNS names [k8s-master localhost] and IPs [192.168.0.30 127.0.0.1 ::1][certs] Generating "ca" certificate and key[certs] Generating "apiserver" certificate and key[certs] apiserver serving cert is signed for DNS names [k8s-master kubernetes kubernetes.default kubernetes.default.svc kubernetes.default.svc.cluster.local] and IPs [10.96.0.1 192.168.0.30][certs] Generating "apiserver-kubelet-client" certificate and key[certs] Generating "front-proxy-ca" certificate and key[certs] Generating "front-proxy-client" certificate and key[certs] Generating "sa" key and public key[kubeconfig] Using kubeconfig folder "/etc/kubernetes"[kubeconfig] Writing "admin.conf" kubeconfig file[kubeconfig] Writing "kubelet.conf" kubeconfig file[kubeconfig] Writing "controller-manager.conf" kubeconfig file[kubeconfig] Writing "scheduler.conf" kubeconfig file[control-plane] Using manifest folder "/etc/kubernetes/manifests"[control-plane] Creating static Pod manifest for "kube-apiserver"[control-plane] Creating static Pod manifest for "kube-controller-manager"[control-plane] Creating static Pod manifest for "kube-scheduler"[etcd] Creating static Pod manifest for local etcd in "/etc/kubernetes/manifests"[wait-control-plane] Waiting for the kubelet to boot up the control plane as static Pods from directory "/etc/kubernetes/manifests". This can take up to 4m0s[kubelet-check] Initial timeout of 40s passed.[kubelet-check] It seems like the kubelet isn't running or healthy.[kubelet-check] The HTTP call equal to 'curl -sSL http://localhost:10248/healthz' failed with error: Get http://localhost:10248/healthz: dial tcp [::1]:10248: connect: connection refused.[kubelet-check] It seems like the kubelet isn't running or healthy.[kubelet-check] The HTTP call equal to 'curl -sSL http://localhost:10248/healthz' failed with error: Get http://localhost:10248/healthz: dial tcp [::1]:10248: connect: connection refused.[kubelet-check] It seems like the kubelet isn't running or healthy.[kubelet-check] The HTTP call equal to 'curl -sSL http://localhost:10248/healthz' failed with error: Get http://localhost:10248/healthz: dial tcp [::1]:10248: connect: connection refused.
- 미해결대세는 쿠버네티스 [초급~중급]
초기 설치 관련건
안녕하세요 강사님 aws 인스턴스에서 쿠버 세팅중 질문 있어서 아래와 같은 질문 드립니다. http://192.168.0.30:8001/api/v1/namespaces/kube-system/services/https:kubernetes-dashboard:/proxy/으로 대쉬보드 접속 하기위하여 192.168.0.30 부분을 aws ec2 공인 IP로 설정 하였습니다.하지만, 사이트가 정상적으로 열리지 않은 상태입니다.블로그에 상세한 설명 덕분에 기존에 되지 않던 설치는 완료 되었습니다.해당부분 처리 방법 알수 있을까요?
- 미해결대세는 쿠버네티스 [초급~중급]
각 노드에서는 왜 서비스를 이용할 수 없을까요?
안녕하세요 강사님 좋은 강의 감사드립니다. 덕분에 많이 배우고 있습니다. 문의 드릴 것이 있어 글을 적습니다. 서비스를 이용해서 curl을 보낼 때, 노드의 터미널에서는 동작하지 않는 반면 파드에서는 동작하지 않는 것을 확인했습니다. 왜 이렇게 동작하는지 궁금합니다. 마스터 노드에서 svc를 확인해보면, externalName Type으로 되어있고 외부 도메인명은 naver.com으로 되어있습니다. 마스터 노드에서 curl externalname1을 하게 되면 연결이 되지 않는 것을 볼 수 있습니다. 반면 동일한 명령어를 Pod에 접속해서 할 경우, 정상적으로 externalName을 찾아서 가는 것으로 보입니다. 노드에서의 동작과 파드에서의 동작이 왜 이렇게 다른지 궁금합니다!
- 미해결대세는 쿠버네티스 [초급~중급]
Mac 사용자는 SCP 사용하셔서 인증서 가져오시고, 인증서 권한 풀어주세요
# 인증서 가져오기 sudo scp root@192.168.56.30:/root/client.p12 ./ # kubernetes-admin 더블클릭 하셔서 항상 신뢰하면 동작합니다
- 미해결대세는 쿠버네티스 [초급~중급]
클라우드 환경에서 로드밸런서 IP 질문
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. cloud 환경에서 쿠버네티스 클러스터를 벤더사에서 제공하는 서비스 없이 구성해보고자 강의를 수강중입니다. 현재 GCP를 사용중인데, 강의에서 말씀해주신 클라우드 벤더사를 이용하면 로드밸런서에 IP가 할당 된다는게 GKE 같은 k8s 서비스를 이용해야만 할당이 가능한게 맞나요? 찾아봐도 대부분 서비스를 이용하라는 것 같긴한데 속시원하지가 않아서 질문드립니다.ㅠ
- 미해결대세는 쿠버네티스 [초급~중급]
Nodeport의 라우팅 방식 질문.
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요 Nodeport를 사용하여 접근한 트래픽은 externalTrafficPolicy 옵션이 없으면 랜덤한 파드로 라우팅되는거 같은데, 이게 로드 밸런싱과 어떤 차이가 있나요? 한 IP로 접근해서 각각의 파드로 트래픽이 분산된다면 LB와 비슷한 역할을 하는 것 같은데 Nodeport를 LB 목적으로 사용하면 안되는 근본적인 이유가 무엇인가요.
- 미해결대세는 쿠버네티스 [초급~중급]
설치 중 에러가 나서 문의 드립니다.
안녕하세요 virtualbox로 kubernetes를 사용하려고 설치하는 도중 vagrant up을 하였을때 다음과 같은 에러가 발생해서 문의 남깁니다. 해결할 수 있는 방법이 있을까요? There was an error while executing `VBoxManage`, a CLI used by Vagrantfor controlling VirtualBox. The command and stderr is shown below. Command: ["hostonlyif", "create"] Stderr: 0%...Progress state: NS_ERROR_FAILUREVBoxManage: error: Failed to create the host-only adapterVBoxManage: error: VBoxNetAdpCtl: Error while adding new interface: failed to open /dev/vboxnetctl: No such file or directoryVBoxManage: error: Details: code NS_ERROR_FAILURE (0x80004005), component HostNetworkInterfaceWrap, interface IHostNetworkInterfaceVBoxManage: error: Context: "RTEXITCODE handleCreate(HandlerArg *)" at line 95 of file VBoxManageHostonly.cpp
- 미해결대세는 쿠버네티스 [초급~중급]
NodePort 사용 시 파드가 실행 중인 워커 노드 IP로만 접속됩니다.
안녕하세요! 강의와 약간 다르지만 VirtualBox가 아닌 GCP 환경에서 실습을 하고 있습니다. GCP 인스턴스 세 대에서 kubeadm으로 마스터 노드 1대, 워커 노드 2대를 구성하여 Calico까지 설치를 하였는데요, 여기까지는 큰 문제 없이 진행되었습니다. 이 다음으로는 제가 ArgoCD를 한번 사용해보려고 공식 문서 설치 가이드에 따라 ArgoCD를 설치하고, 서비스를 NodePort로 설정하였습니다. (ArgoCD가 아닌 제가 직접 만든 서버에서도 아래 말씀 드릴 문제와 동일한 네트워크 문제가 있어 ArgoCD의 문제는 아닌 것 같습니다. 그냥 임의의 NodePort 서비스 하나 만들었다고 생각해주시면 감사하겠습니다.) 위 사진에서처럼 모든 파드가 Running 상태이고, argocd-server 서비스가 NodePort로 올라가 있습니다. 여기에서 argocd-server 파드가 worker-2 노드에서 실행중인데, 제 로컬 PC에서 브라우저나 curl로 <worker-2 IP>:31434 로는 잘 연결이 되는데, <worker-1 IP>:31434 또는 <master IP> :31434로는 연결이 되질 않습니다. 구글링을 여러 번 해봤는데 iptables -P FORWARD ACCCEPT 명령어를 사용하면 해결이 된다고 하는데 이 방법으로도 해결이 안됩니다 ㅜㅜ 강의 네트워킹 파트 보면서 어디에 문제가 있는지 찾아보려고 몇 번 시도해본 바로는, 1. 파드가 실행중인 worker-2에서 curl <서비스 클러스터 IP>:80 은 잘 됩니다. 2. 파드가 실행중이지 않은 master, worker-1에서 curl <서비스 클러스터 IP>:80 은 연결이 안됩니다.(Connection timed out) 3. worker-1과 worker-2에서 각각 tcpdump -i eth0 port 31434 실행시키고 <worker-1의 IP>:31434 접속 시도했을 때 worker-1에서는 패킷이 찍히지만 worker-2에서는 패킷이 찍히지 않습니다. 아마 아래 강의자료 그림에서처럼 파드가 없는 노드(우측)에는 패킷이 들어왔는데 파드가 실행중인 노드(좌측)에는 패킷이 들어오지 않은 것을 보면 Route나 Overlay 단계에서 문제가 있는 것 같습니다. 내용 추가 위에 패킷을 찍어볼 때 원래 인터페이스 지정을 안했어서 tcpdump -i cali427d2dd59fe -new tcp -vv로 다시 했더니 worker-2에 패킷이 들어오는 건 확인했습니다. 그런데 체크섬 incorrect라는 로그가 많이 보여서 내용이 정상인지는 잘 모르겠습니다... 혹시 이 다음에 어떤 걸 확인해야 할까요?
- 해결됨대세는 쿠버네티스 [초급~중급]
0/1 nodes are available: 1 node(s) had taint {node-role.kubernetes.io/master: }, that the pod didn't tolerate.
Kubernetes Cluster 설치 [v1.22] (최신, 쉬운설치 버전) 보고 따라해봤는데 pod 생성에서 에러가 납니다. Windows 10 / 16GB Dashboard v2.3.0+0.gccb45d8ca
- 미해결대세는 쿠버네티스 [초급~중급]
mobaxterm master 접속 오류
회사 환경때문에 핸드폰 USB 테더링으로 인터넷 접속해서 하고있습니다. 제목과 같이 mobaxterm master ip를 192.168.68.xx 대역으로 했는데 핑이 아예 되질 않네요 ㅜㅜ 참고로 USB ip는 아래와 같습니다. (SAMSUNG Mobile USB Remote NDIS Network Device #2 IPv4 주소 : 192.168.68.1xx(기본 설정)) usb테더링 환경에서는 같은 ip대역에서 다른 ip주소로 접속이 불가한가요..?? ㅠㅠ
- 미해결대세는 쿠버네티스 [초급~중급]
질문 드립니다.
안녕하세요 이번에 강의 신청해서 수강 중입니다. 강의 듣던 중 몇가지 질문이 있어 글 남깁니다. Aws 에서 서버 생성 후 테스트를 진행 하고 싶은데 혹시 방안 있을까요? aws에서 ec2 사용 할 시 최소 사양은 몇으로 하면 될까요?
- 해결됨대세는 쿠버네티스 [초급~중급]
Dashboard에서 pod 생성시 에러가 발생합니다. 스샷 첨부 드립니다.
실습 진행이 안되는데 더 확인해봐야 할 게 있을까요?
- 미해결대세는 쿠버네티스 [초급~중급]
Dashboard 활용 빈도와 yaml 파일 전송에 대한 질문입니다
실무에서 Dashboard를 많이 활용할까요? 강의에서 강의니깐 보여주기 위해 Dashboard를 활용한다고 설명을 들은 것 같습니다. 실무에서도 Dashboard를 많이 활용하는지, 아니면 터미널 등을 통해 yaml파일로 요청을 보내는 형식으로 쿠버네티스를 활용하는지 궁금합니다. 2. yaml 파일 전송 대시보드 말고 yaml파일을 저장해서 `kubectl apply -f` 명령어를 통해 yaml 파일을 전송해보고 싶은데, Master인 서버에 해당 yaml 파일을 요청하면 되는지 궁금합니다. 또한 외부 서버에서 Master 서버에 yaml 파일을 전송하여 설정 가능한지도 궁금합니다
- 미해결대세는 쿠버네티스 [초급~중급]
쿠버네티스 Pod 접속 관련 문의 드립니다.
안녕하세요 K8S 통신 관련 문의 드립니다. 현재 kubectl get nodes 명령어를 입력 시 다음과 같이 모든 Node에서 Ready 상태가 정상적으로 뜨지만 해당 내용의 YAML파일을 바탕으로 kubectl apply -f nginx-pod.yaml 명령어를 사용하여 해당 Pod 가 정상적으로 생성,동작됨이 확인됩니다. kubectl describe pods my-nignx-pod 명령어를 사용하여 해당 pod의 IP주소를 확인하였고 curl 20.102.133.4 명령어를 통해 해당 pod로 접속시도를 해보았으나 다음과 같이 응답을 하지 않습니다. 혹시나 싶어 해당 Pod가 있는 VM의 IP 주소인 10.0.0.6 으로 Ping 테스트를 해보았을때는 Ping은 이상없이 잘 동작합니다. 해당 Pod에 대한 접속 방법에대해 말씀해주시면 감사하겠습니다. 감사합니다.
- 미해결대세는 쿠버네티스 [초급~중급]
nfs 와 Longhorn
nfs-server의 ip가 server를 설치한 cluster의 ip가 맞나요? ifconfig 하면 나오는거중에 eth0 <-- nfs pod를 만든게 pod가 storageclass 역할을 해주는건가요? 아니면 노드가 달라도 둘이 붙는다 라는걸 보여주려고 하신건가요? nfs도 storageclass 만들어서 다이나믹 프로비저닝 해주는거같은데 실습에 그 방법은 없는 것 같은데 혹시 이 상태에서 쿠버네티스 공홈에서 nfs storageclass 만드는 법 보고 apply만 해주면 사용이 가능한가요 ? 실무에서 Longhorn을 더 많이 쓰나요?
- 미해결대세는 쿠버네티스 [초급~중급]
파드 포트 궁금한점 입니다.
파드안에서의 컨테이너는 port가 겹칠경우 에러가 난다 라는 것은 알겠습니다 파드 ip : port 로 구분하니까 파드1:80, 파드2:80 같이 파드 끼리의 컨테이너 port는 겹쳐도 문제 없는건가요? localhost:80 하면 누가 나오나요 파드1의 localhost:80과 파드2의 localhost:80은 다른건가요
- 미해결대세는 쿠버네티스 [초급~중급]
Dashboard에 접근이 안됩니다.
모든 설정이 정상적으로 완료 된 상태에서 마지막 데시보드 접근 시 이렇게 나오고 있습니다. master node의 현황입니다.
- 미해결대세는 쿠버네티스 [초급~중급]
쿠버네티스 설치 오류 [ERROR FileContent--proc-sys-net-bridge-bridge-nf-call-iptables]: /proc/sys/net/bridge/bridge-nf-call-iptables does not exist
안녕하세요 쿠버네티스 설치 후 join.sh에 아무내용이 안나와서 설치과정 확인해보니 아래와같은 에러가 나오는데 어떻게 해결하면될까요.. ? k8s-master: Running provisioner: shell... k8s-master: Running: inline script k8s-master: I0628 11:30:40.411653 14444 version.go:255] remote version is much newer: v1.24.2; falling back to: stable-1.22 k8s-master: [init] Using Kubernetes version: v1.22.11 k8s-master: [preflight] Running pre-flight checks k8s-master: [preflight] WARNING: Couldn't create the interface used for talking to the container runtime: docker is required for container runtime: exec: "docker": executable file not found in $PATH k8s-master: error execution phase preflight: [preflight] Some fatal errors occurred: k8s-master: [ERROR FileContent--proc-sys-net-bridge-bridge-nf-call-iptables]: /proc/sys/net/bridge/bridge-nf-call-iptables does not exist k8s-master: [ERROR FileContent--proc-sys-net-ipv4-ip_forward]: /proc/sys/net/ipv4/ip_forward contents are not set to 1 k8s-master: [preflight] If you know what you are doing, you can make a check non-fatal with `--ignore-preflight-errors=...` k8s-master: To see the stack trace of this error execute with --v=5 or higher k8s-master: failed to load admin kubeconfig: open /root/.kube/config: no such file or directory k8s-master: To see the stack trace of this error execute with --v=5 or higher k8s-master: cp: cannot stat ‘/etc/kubernetes/admin.conf’: No such file or directory k8s-master: chown: cannot access ‘/root/.kube/config’: No such file or directory k8s-master: Loaded plugins: fastestmirror k8s-master: Loading mirror speeds from cached hostfile
- 미해결대세는 쿠버네티스 [초급~중급]
쿠버네티스 대시보드 로그인 안되요
아래 처럼 로그인이 안됩니다. 도와주세요 ㅠㅠ 접근 url : http://192.168.56.30:8001/api/v1/namespaces/kubernetes-dashboard/services/https:kubernetes-dashboard:/proxy/#/login