55,000원
다른 수강생들이 자주 물어보는 질문이 궁금하신가요?
- 미해결대세는 쿠버네티스 [초급~중급]
파이프라인을 거쳐 experiment 실행 중인 pod 적용방법
안녕하세요 강사님,하나의 ML application program을 다양한 limitRange 모델을 적용해서 resource 설정에 따라 처리속도 등 어떻게 달라지는지를 비교하는 테스트를 아래 두가지 방법으로 하고자 합니다.파이썬 코드를 이미지 빌드 및 푸쉬하여 파이프라인 작업후 experiment 을 하고자 할 경우, limitRange가 설정된 pod에 올리는 방법 limitRange 적용되어 파이프라인을 거쳐 experiment running 중인 pod에 새로운 pod(단일, 복수의 pod)를 생성해서 그 pod들의 limitRange로 experiment 실행을 위한 방법을 알려 주시면 감사하겠습니다.
- 미해결대세는 쿠버네티스 [초급~중급]
쿠버네티스 클러스터 노드 연결 문제
현재 Master Node, Worker Node 두개로 클러스터 구성하려합니다.안녕하세요, 강사님강사님의 쿠버네티스 강의를 듣고 실전에서 수행 중에 있습니다. Master Node와 Worker Node의 클러스터 구성중에 있는데 Master 노드에서 init(sudo kubeadm init --pod-network-cidr=10.244.0.0/16 --apiserver-advertise-address=192.168.0.67) 명령문 시행하고 나온 출력 명령문을 워커노드에서 입력했는데 이렇게 뜨네요...마스터노드에서 kubectl get pods --all-namespaces하면 'flannel'은 정상적으로 ruunning 상태입니다. 현재 환경에 대해서 자세히 말씀드리자면, nhn클라우드에서 cpu서버(master 노드)와 gpu서버(워커 노드) 간 클러스터를 구성하려 하고 있고, 두 서버간 피어링 되어있습니다.마스터 노드 eth0 ip는 192.168.0.67, 워커노드 eth0 ip는 10.0.0.3으로 대역대가 다르지만, 위에서 말한 피어링을 통해 통신은 가능한 상태입니다. (워커노드에서 ping 192.168.0.67하면 응답함)뭐가 문제일까요??? ㅜㅜㅜ 방화벽 해제, 노드 오픈, 서버 시간 동기화, swapoff(마스터, 워커 둘다 함) 다했는데도 안되는 이유가 뭘까요...
- 해결됨대세는 쿠버네티스 [초급~중급]
loki-stack 설치시 에러가 발생합니다.
[root@k8s-master ~]# helm repo add loki https://grafana.github.io/loki/charts"loki" has been added to your repositories[root@k8s-master ~]# helm fetch loki/loki-stack --version 0.41.2[root@k8s-master ~]# tar -xf loki-stack-0.41.2.tgz[root@k8s-master ~]# lsanaconda-ks.cfg client.crt client.key client.p12 join.sh loki-stack loki-stack-0.41.2.tgz original-ks.cfg ssl[root@k8s-master ~]# cd loki-stack/[root@k8s-master loki-stack]# lscharts Chart.yaml README.md requirements.lock requirements.yaml templates values.yaml[root@k8s-master loki-stack]# vi values.yaml[root@k8s-master loki-stack]# kubectl create ns loki-stacknamespace/loki-stack created[root@k8s-master loki-stack]# helm install loki-stack -f values.yaml . -n loki-stackcoalesce.go:160: warning: skipped value for filters: Not a table.Error: unable to build kubernetes objects from release manifest: [unable to recognize "": no matches for kind "Role" in version "rbac.authorization.k8s.io/v1beta1", unable to recognize "": no matches for kind "RoleBinding" in version "rbac.authorization.k8s.io/v1beta1"][root@k8s-master loki-stack]# 위와 같이 설치시 에러가 발생하는데 어떤 부분을 확인해보면 될까요?
- 해결됨대세는 쿠버네티스 [초급~중급]
longhorn 설치 시 longhorn 삭제가 안됩니다.
[root@k8s-master ssl]# kubectl get storageclasses.storage.k8s.io -n longhorn-system longhornNAME PROVISIONER RECLAIMPOLICY VOLUMEBINDINGMODE ALLOWVOLUMEEXPANSION AGElonghorn (default) driver.longhorn.io Delete Immediate true 119s[root@k8s-master ssl]# kubectl delete storageclasses.storage.k8s.io -n longhorn-system longhornwarning: deleting cluster-scoped resources, not scoped to the provided namespacestorageclass.storage.k8s.io "longhorn" deleted[root@k8s-master ssl]# cat <<EOF | kubectl create -f -> kind: StorageClass> apiVersion: storage.k8s.io/v1> metadata:> name: longhorn> provisioner: driver.longhorn.io> allowVolumeExpansion: true> parameters:> numberOfReplicas: "2"> staleReplicaTimeout: "2880"> fromBackup: ""> EOFError from server (AlreadyExists): error when creating "STDIN": storageclasses.storage.k8s.io "longhorn" already exists[root@k8s-master ssl]# 어떤 부분을 확인해봐야 할까요?
- 미해결대세는 쿠버네티스 [초급~중급]
Env(File) terminal로 container root-master에서 kubectl not found 에러
Env(File) terminal로 container root-master에서 kubectl not found 메세지가 나오는데, master 터미널 모드에서 kubectl을 어떻게 설치 해야 하는지 알려 주시기 바랍니다.
- 미해결대세는 쿠버네티스 [초급~중급]
노트북 minikube 환경에서 추가 node 설정 및 dashboard 확인 방법
$ minikube start \ --driver='docker' \ --profile='multinode-lab' \ --cni='calico' \ --kubernetes-version='stable' \ --nodes=3위에 처럼 노드 추가를 실행하고 $ minikube status -p multinode-lab 명령어 실행 및 Docker Desktop에서도 pods(containers)들이 running 되는것을 확인 하였습니다. 그런데 minikube dashboard를 실행하면 보이지 않고 기존의 kinikube 노드만 확인 됩니다. 추가된 노드들을 dashboard에서 확인할 수 있는 방법에 대해 알려 주시면 감사하겠습니다.
- 미해결대세는 쿠버네티스 [초급~중급]
맥환경에서 강의 청취
강사님,저는 맥북을 사용하고 있는데, 예를 들면 Xshell.exe는 설치 실행이 안됩니다. 맥 환경에서 이 강의를 청취하고 실습을 하는데 문제가 되는지 안되는지 알려 주시기 바랍니다.맥 환경에서 강의 청취에 문제가 안된다면, 맥환경에서 설치 방법에 대해서도 추가로 올려 주시기 바랍니다. 그리고 docker, minikube, VMbox 다 설치후 kubeflow를 설치하는 방법에 대해서도 알려 주시면 감사하겠습니다~^^ 맥북에서 여러 시행착오 끝에 kustomize (최신버전시) 명령으로 설치를 하였는데, ㅇdex를 통해 kubeflow dashboard 오픈이 쉽지 않네요..
- 해결됨대세는 쿠버네티스 [초급~중급]
Statefulset PersistentVolumeClaim 생성
안녕하세요 또 여쭤볼 게 있어서 문의 드립니다.퍼시스턴트볼륨클레임을 예제와 같이 동일하게 생성하였는데생성된 퍼시스턴트볼륨클레임에는 용량도 없고퍼시스턴트 볼륨도 생성되지 않았습니다.혹시 어떤 부분을 확인해봐야 할까요?
- 미해결대세는 쿠버네티스 [초급~중급]
Network error: Connection timed out 오류
안녕하세요MobXTerm을 실행 하는 중, 3-1) pre-setting 과정에서 Network error: Connection timed out 오류로 진행이 안됩니다. 제가 무엇을 잘못했는지 알지 못하여 질문드립니다.
- 해결됨대세는 쿠버네티스 [초급~중급]
dashboard 2.0 설치 시 토큰값 생성이 안됩니다.
dashboard 2.0 설치중인데요kubernetes-dashboard-token--뒤에서 tab을 눌러도 자동완성이 안되고동영상 학습과 같은 값을 임의로 넣어봐도 안됩니다.어떻게 해야 할까요?tab은 수십번 눌러봤습니다.맨 앞에 kubectl 부분에서 ctl 지우고 kube에서 tab을 누르면 자동완성이 나오는데kubernetes-dashboard-token- 여기에서는 아무리 눌러도 자동완성이 안되네요
- 미해결대세는 쿠버네티스 [초급~중급]
k8s v1.22 longhorn install error
k8s 1.22 Version 사용중인데 해당 3개의 파드가 Pending 상태로 있습니다.describe 했을 때 밑과 같습니다.어떻게 하면 될까요? ㅜㅜ [root@k8s-master ~]# kubectl describe pod -n longhorn-system longhorn-driver-deployer-5bcb6c4bbc-md82xName: longhorn-driver-deployer-5bcb6c4bbc-md82xNamespace: longhorn-systemPriority: 0Node: k8s-node2/192.168.56.102Start Time: Wed, 05 Oct 2022 00:44:30 +0900Labels: app=longhorn-driver-deployer app.kubernetes.io/instance=longhorn app.kubernetes.io/name=longhorn app.kubernetes.io/version=v1.3.0-dev pod-template-hash=5bcb6c4bbcAnnotations: cni.projectcalico.org/containerID: fc08862d6711fed198c6d6af6fbfc2b2b14964d8e38562b2ccb310514d1c0d26 cni.projectcalico.org/podIP: 10.109.131.30/32 cni.projectcalico.org/podIPs: 10.109.131.30/32Status: PendingIP: 10.109.131.30IPs: IP: 10.109.131.30Controlled By: ReplicaSet/longhorn-driver-deployer-5bcb6c4bbcInit Containers: wait-longhorn-manager: Container ID: docker://cf86690298f9d4f0cb19028ede5a206ddba8571afe0859303eeb151475405177 Image: longhornio/longhorn-manager:master-head Image ID: docker-pullable://longhornio/longhorn-manager@sha256:e6a5b775a143e7428cc9cb19a3e4e161096679d4cbb49ba84d840d8e22d5f82d Port: <none> Host Port: <none> Command: sh -c while [ $(curl -m 1 -s -o /dev/null -w "%{http_code}" http://longhorn-backend:9500/v1) != "200" ]; do echo waiting; sleep 2; done State: Running Started: Wed, 05 Oct 2022 00:44:59 +0900 Ready: False Restart Count: 0 Environment: <none> Mounts: /var/run/secrets/kubernetes.io/serviceaccount from kube-api-access-bqxtp (ro)Containers: longhorn-driver-deployer: Container ID: Image: longhornio/longhorn-manager:master-head Image ID: Port: <none> Host Port: <none> Command: longhorn-manager -d deploy-driver --manager-image longhornio/longhorn-manager:master-head --manager-url http://longhorn-backend:9500/v1 State: Waiting Reason: PodInitializing Ready: False Restart Count: 0 Environment: POD_NAMESPACE: longhorn-system (v1:metadata.namespace) NODE_NAME: (v1:spec.nodeName) SERVICE_ACCOUNT: (v1:spec.serviceAccountName) CSI_ATTACHER_IMAGE: longhornio/csi-attacher:v3.2.1 CSI_PROVISIONER_IMAGE: longhornio/csi-provisioner:v2.1.2 CSI_NODE_DRIVER_REGISTRAR_IMAGE: longhornio/csi-node-driver-registrar:v2.3.0 CSI_RESIZER_IMAGE: longhornio/csi-resizer:v1.2.0 CSI_SNAPSHOTTER_IMAGE: longhornio/csi-snapshotter:v3.0.3 Mounts: /var/run/secrets/kubernetes.io/serviceaccount from kube-api-access-bqxtp (ro)Conditions: Type Status Initialized False Ready False ContainersReady False PodScheduled TrueVolumes: kube-api-access-bqxtp: Type: Projected (a volume that contains injected data from multiple sources) TokenExpirationSeconds: 3607 ConfigMapName: kube-root-ca.crt ConfigMapOptional: <nil> DownwardAPI: trueQoS Class: BestEffortNode-Selectors: <none>Tolerations: node.kubernetes.io/not-ready:NoExecute op=Exists for 300s node.kubernetes.io/unreachable:NoExecute op=Exists for 300sEvents: Type Reason Age From Message ---- ------ ---- ---- ------- Normal Scheduled 3m24s default-scheduler Successfully assigned longhorn-system/longhorn-driver-deployer-5bcb6c4bbc-md82x to k8s-node2 Normal Pulled 3m5s kubelet Container image "longhornio/longhorn-manager:master-head" already present on machine Normal Created 2m56s kubelet Created container wait-longhorn-manager Normal Started 2m53s kubelet Started container wait-longhorn-manager
- 미해결대세는 쿠버네티스 [초급~중급]
vagrant up 시 오류
이런식으로 vagrant up 중 진행이 되지 않고, 완전히 꼬임이라고 표시가 계속 됩니다..어떻게 해결할 수 있나요?
- 미해결대세는 쿠버네티스 [초급~중급]
xshell 접속 안됨
vagrant up 성공 vm 구동 확인 xshell 접속 안됨 ,,,,,,,,,,,,,,,,,,,,, 도와주세요 ㅠㅠㅠㅠㅠㅠㅠㅠ어떤 부분을 의심해봐야 할까요
- 미해결대세는 쿠버네티스 [초급~중급]
k8s-master 연결 에러 ㅜㅜ 도와주세요 ㅠㅠ
접속이 안됩니다 ㅠㅠ k8s-master 는 생성 했는데 ㅠㅠ도와주세요 ㅠㅠ 이더넷 어댑터 이더넷: 연결별 DNS 접미사. . . . : 링크-로컬 IPv6 주소 . . . . : fe80::68d9:bb1a:9835:29f7%14 IPv4 주소 . . . . . . . . . : 192.168.25.24 서브넷 마스크 . . . . . . . : 255.255.255.0 기본 게이트웨이 . . . . . . : 192.168.1.1 이더넷 어댑터 VirtualBox Host-Only Network: 연결별 DNS 접미사. . . . : 링크-로컬 IPv6 주소 . . . . : fe80::50f0:5caf:c7a7:6013%7 IPv4 주소 . . . . . . . . . : 192.168.56.1 서브넷 마스크 . . . . . . . : 255.255.255.0 기본 게이트웨이 . . . . . . : 이더넷 어댑터 vEthernet (WSL): 연결별 DNS 접미사. . . . : 링크-로컬 IPv6 주소 . . . . : fe80::d86c:11b7:2c81:2ea%29 IPv4 주소 . . . . . . . . . : 172.29.176.1 서브넷 마스크 . . . . . . . : 255.255.240.0 기본 게이트웨이 . . . . . . :
- 미해결대세는 쿠버네티스 [초급~중급]
쿠버네티스 문서 참고링크들이 예전 버전이라그런지 접속이안됩니다.
쿠버네티스 문서 참고링크들이 예전 버전이라그런지 접속이안됩니다.
- 미해결대세는 쿠버네티스 [초급~중급]
질문 있습니다!
기본적으로 생성된 Service Account는 별도의 Role / Role Binding 설정 없이 해당 토큰(Post Man)을 사용해서 모든 자원에 접근이 가능했었습니다. Service Account는 기본적으로 어떤 Role과 연결이 될까요?
- 미해결대세는 쿠버네티스 [초급~중급]
kubeadm init시 connection refuse에러
환경은 AWS 환경이며, 실습환경과 똑같은 아이피로 해서centos 7으로 동일하게 구성하고 있습니다(제 커널버전은 Linux 3.10.0-1160.76.1.el7.x86_64)그런데 마지막에 kubeadm init 하는데 connection refused 이 뜨며 진행이 되지 않습니다.해당 에러 발생시 daemon.json을 확인하라는 내용이 있던데(구글링시) 이상이 없었습니다.아래는 전체로그 입니다.회신 주시면 감사드리겠습니다.[root@k8s-master centos]# kubeadm init --pod-network-cidr=20.96.0.0/12 --apiserver-advertise-address=192.168.0.30I0827 06:11:16.046030 2520 version.go:248] remote version is much newer: v1.25.0; falling back to: stable-1.15[init] Using Kubernetes version: v1.15.12[preflight] Running pre-flight checks[WARNING SystemVerification]: this Docker version is not on the list of validated versions: 20.10.17. Latest validated version: 18.09[preflight] Pulling images required for setting up a Kubernetes cluster[preflight] This might take a minute or two, depending on the speed of your internet connection[preflight] You can also perform this action in beforehand using 'kubeadm config images pull'[kubelet-start] Writing kubelet environment file with flags to file "/var/lib/kubelet/kubeadm-flags.env"[kubelet-start] Writing kubelet configuration to file "/var/lib/kubelet/config.yaml"[kubelet-start] Activating the kubelet service[certs] Using certificateDir folder "/etc/kubernetes/pki"[certs] Generating "etcd/ca" certificate and key[certs] Generating "etcd/server" certificate and key[certs] etcd/server serving cert is signed for DNS names [k8s-master localhost] and IPs [192.168.0.30 127.0.0.1 ::1][certs] Generating "etcd/healthcheck-client" certificate and key[certs] Generating "apiserver-etcd-client" certificate and key[certs] Generating "etcd/peer" certificate and key[certs] etcd/peer serving cert is signed for DNS names [k8s-master localhost] and IPs [192.168.0.30 127.0.0.1 ::1][certs] Generating "ca" certificate and key[certs] Generating "apiserver" certificate and key[certs] apiserver serving cert is signed for DNS names [k8s-master kubernetes kubernetes.default kubernetes.default.svc kubernetes.default.svc.cluster.local] and IPs [10.96.0.1 192.168.0.30][certs] Generating "apiserver-kubelet-client" certificate and key[certs] Generating "front-proxy-ca" certificate and key[certs] Generating "front-proxy-client" certificate and key[certs] Generating "sa" key and public key[kubeconfig] Using kubeconfig folder "/etc/kubernetes"[kubeconfig] Writing "admin.conf" kubeconfig file[kubeconfig] Writing "kubelet.conf" kubeconfig file[kubeconfig] Writing "controller-manager.conf" kubeconfig file[kubeconfig] Writing "scheduler.conf" kubeconfig file[control-plane] Using manifest folder "/etc/kubernetes/manifests"[control-plane] Creating static Pod manifest for "kube-apiserver"[control-plane] Creating static Pod manifest for "kube-controller-manager"[control-plane] Creating static Pod manifest for "kube-scheduler"[etcd] Creating static Pod manifest for local etcd in "/etc/kubernetes/manifests"[wait-control-plane] Waiting for the kubelet to boot up the control plane as static Pods from directory "/etc/kubernetes/manifests". This can take up to 4m0s[kubelet-check] Initial timeout of 40s passed.[kubelet-check] It seems like the kubelet isn't running or healthy.[kubelet-check] The HTTP call equal to 'curl -sSL http://localhost:10248/healthz' failed with error: Get http://localhost:10248/healthz: dial tcp [::1]:10248: connect: connection refused.[kubelet-check] It seems like the kubelet isn't running or healthy.[kubelet-check] The HTTP call equal to 'curl -sSL http://localhost:10248/healthz' failed with error: Get http://localhost:10248/healthz: dial tcp [::1]:10248: connect: connection refused.[kubelet-check] It seems like the kubelet isn't running or healthy.[kubelet-check] The HTTP call equal to 'curl -sSL http://localhost:10248/healthz' failed with error: Get http://localhost:10248/healthz: dial tcp [::1]:10248: connect: connection refused.
- 미해결대세는 쿠버네티스 [초급~중급]
초기 설치 관련건
안녕하세요 강사님 aws 인스턴스에서 쿠버 세팅중 질문 있어서 아래와 같은 질문 드립니다. http://192.168.0.30:8001/api/v1/namespaces/kube-system/services/https:kubernetes-dashboard:/proxy/으로 대쉬보드 접속 하기위하여 192.168.0.30 부분을 aws ec2 공인 IP로 설정 하였습니다.하지만, 사이트가 정상적으로 열리지 않은 상태입니다.블로그에 상세한 설명 덕분에 기존에 되지 않던 설치는 완료 되었습니다.해당부분 처리 방법 알수 있을까요?
- 미해결대세는 쿠버네티스 [초급~중급]
각 노드에서는 왜 서비스를 이용할 수 없을까요?
안녕하세요 강사님 좋은 강의 감사드립니다. 덕분에 많이 배우고 있습니다. 문의 드릴 것이 있어 글을 적습니다. 서비스를 이용해서 curl을 보낼 때, 노드의 터미널에서는 동작하지 않는 반면 파드에서는 동작하지 않는 것을 확인했습니다. 왜 이렇게 동작하는지 궁금합니다. 마스터 노드에서 svc를 확인해보면, externalName Type으로 되어있고 외부 도메인명은 naver.com으로 되어있습니다. 마스터 노드에서 curl externalname1을 하게 되면 연결이 되지 않는 것을 볼 수 있습니다. 반면 동일한 명령어를 Pod에 접속해서 할 경우, 정상적으로 externalName을 찾아서 가는 것으로 보입니다. 노드에서의 동작과 파드에서의 동작이 왜 이렇게 다른지 궁금합니다!
- 미해결대세는 쿠버네티스 [초급~중급]
Mac 사용자는 SCP 사용하셔서 인증서 가져오시고, 인증서 권한 풀어주세요
# 인증서 가져오기 sudo scp root@192.168.56.30:/root/client.p12 ./ # kubernetes-admin 더블클릭 하셔서 항상 신뢰하면 동작합니다