49,500원
다른 수강생들이 자주 물어보는 질문이 궁금하신가요?
- 해결됨쉽게 시작하는 쿠버네티스(v1.25)
안녕하세요! 강의 4.3중에 질문이 있습니다.
안녕하세요! 저같은 경우에는 master node의 컨테이너 런타임을 stop해도 worker node의 nginx에 curl 진행시 정상적으로 응답을 보여주는데요. 혹시 쿠버네티스가 cache를 참고해서 이전에 접속을 시도했던 내용에 대해서는 정상적으로 보여지는 기능이 있나요?? 제가 컨테이너 런타임을 stop하기전에 한번이라도 접속했던 nginx에 대해서는 응답이 보이는데 한번도 접속하지 않은 nginx 컨테이너에 대해서는 강의처럼 접속이 안되어서요. 저의 추측이 맞다면 cache 사용 유무와 사용에 대한 설정 및 cache 내용 저장 위치에 대해 궁금합니다!
- 해결됨쉽게 시작하는 쿠버네티스(v1.25)
8.005 polaris 질문있습니다.
현재 강사님이 알려주신대로 polaris -dashboard다운로드하고 Loadbalancer로 진행하려고하는데요(metalib-system도 이미 설치된상태) expose를 LoadBalancer로 진행했는데 external IP 가 안나와서 yaml파일을 만들어서 진행했습니다. 이렇게하면 external IP는 나오는데 192.168.1.11:8080으로 해도 접속이안되네요.. 제가만든 yaml파일이 잘못되었을까요?? [root@m-k8s ~]# cat go.yaml apiVersion: v1 kind: Service metadata: labels: app: polaris-dashboard name: polaris namespace: polaris spec: type: LoadBalancer ports: - protocol: TCP port: 8080 targetPort: 80 externalIPs: - 192.168.1.11 selector: app: polaris-dashboard [root@m-k8s ~]# k get -n polaris svc NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE polaris LoadBalancer 10.103.134.128 192.168.1.11 8080:30620/TCP 3m polaris-dashboard ClusterIP 10.106.219.11 <none> 80/TCP 4m58s
- 미해결쉽게 시작하는 쿠버네티스(v1.25)
컨트롤러 매니저의 역할을 자세히 모르겠습니다!
스케쥴러는 pod 배포나 변화에 대한 스케쥴을 잡는데 컨트롤러 매니저는 무엇을하는건지 잘 모르겠습니다!
- 미해결쉽게 시작하는 쿠버네티스(v1.25)
eks-iam 세부설정이 궁금합니다!
eks-iam을 따로 역할로 만드신것같은데 혹시 정책 설정이 어떻게 되어있는지 공유가 가능하실까요? eks 구성을 직접 해보고싶어서요!
- 미해결쉽게 시작하는 쿠버네티스(v1.25)
Service를 외부에 노출하여 운영하는 서비스 라고 생각해도될까요?
Service를 외부에 노출하여 운영하는 서비스 라고 생각해도될까요? 거실이라고 하셨는데 Service가 거실이라면 방은 deployment 또는 pod이 되는것이겠죠...? 저는 약간 Service는 회사, deployment는 부서, pod는 같은업무를 하는 사원 요렇게 생각해봤는데, 예시를 맞게 든 것일까요? 좋은강의 감사드립니다!
- 미해결쉽게 시작하는 쿠버네티스(v1.25)
트래픽 흐름
설명해주신 도식상으로는 SVC -> MetalLB -> Deployment 순서로 트래픽이 흐르는것 같습니다. MetalLB가 최상단에 노출되는 SVC의 일종인거죠? SVC=로드밸런서 로 설정하여 서비스IP=로드밸런서IP가 되고, 트래픽은 MetalLB -> Deployment -> 각 worker node 순으로 보면 될까요? 감사합니다.
- 미해결쉽게 시작하는 쿠버네티스(v1.25)
디플로이먼트는 어느 노드에 배치가 되나요?
디플로이먼트를 create 하게 되면 어떤 워커노드에 할당되게 되나요? 여러 노드중에 특정 워커노드만 지정해서 디플로이먼트를 배포할 수 있나요? 감사합니다.
- 미해결쉽게 시작하는 쿠버네티스(v1.25)
컨테이너 생성 관리
쿠버네티스가 컨테이너 관리를 한다고 했는데, kubectl run nginx --image=nginx 실행하면 pod 안에 컨테이너 생성 배포까지 다 이루어진건가요? 쿠버네티스로 컨테이너 생성/설정까지 가능한가요? 감사합니다.
- 미해결쉽게 시작하는 쿠버네티스(v1.25)
새 파드의 상태가 계속 pending이에요
파드를 생성하고 pod/nginx created 까지는 통과했는데 그 이후로 stauts 가 pending에서 바뀌지 않습니다; 혹시나해서 pc재기동을 해보았는데 바뀐게 없고요.. 검색해보았지만 어떻게 대응해야 할지 잘 모르겠습니다;; pending이 나오면 어떤 걸 확인해야 할까요?
- 미해결쉽게 시작하는 쿠버네티스(v1.25)
실물에서 상용서버를 구축한다고 했을때
안녕하세요? 강의 잘 보았습니다. 몇가지 궁금한게 있어서 질문 드리겠습니다. 실무에서 상용서버(Linux)로 쿠베네티스를 구축한다고 했을때는 노드 하나가 서버 1대라고 생각해야 하나요? 아니면 거기서도 VM으로 다시 나누는지 물론 상황따라서 두가지 경우를 다 쓸거 같은데 관련 가이드나 기준이 있는지 궁금합니다.
- 미해결쉽게 시작하는 쿠버네티스(v1.25)
4개의 노드에 모두 설치되는 건가요?
안녕하세요. 강의를 듣는 중 궁금한 점이 생겨 질문드립니다. kubectl run nginx --image=nginx 했을 때 4개의 노드에 모두 nginx 컨테이너가 생성되는 건가요? curl 172.16.132.1이 명령어는 1개의 노드를 확인하는 건가요?
- 미해결쉽게 시작하는 쿠버네티스(v1.25)
aws 쿠버네티스 환경 구성
안녕하세요. 항상 좋은강의 올려주셔서 감사합니다. 저는 버추얼 박스가 아닌 aws ec2 3~4개정도를 빌려 테스트하고자 하는데 어떤 종류의 쿠버를 쓰면 좋을 지와 어떻게 접근 해야할 지 알고자 질문드립니다. ---질문 내용-- 1. aws ec2로 쿠버네티스 환경을 구성할 때 사용하는 쿠버네티스 종류's? 2. 설치를 위해 검색할 때 어떤 키워드로 검색을 해보면 좋을까요? ---
- 미해결쉽게 시작하는 쿠버네티스(v1.25)
만약 컨트롤러에 문제가 생기면 어떻게 될까요?
쉽고 재밌는 설명 덕에 재밌게 강의 수강하고 있습니다. 만약 컨트롤러에 문제가 생기면 어떻게 될까요?
- 미해결쉽게 시작하는 쿠버네티스(v1.25)
SVC 아이피 및 포트
노드 포트로 외부 노출시에 svc에 ip도 할당 되는데 svc 아이피로 접근하면 하위에있는데 노드 아이피로 분배 되는게 아닌가요 ?? 그런 기능이 없다면 왜 ..ip가 설정되고 포트도 지정되는걸까요 ?
- 미해결쉽게 시작하는 쿠버네티스(v1.25)
컨테이너와 가상머신의 트래픽 분산 관련 질문드립니다
안녕하세요 질문이있어서 글 남깁니다. 컨테이너 기반으로 서버 구축시에 쿠버네티스를 통하여 스케일 아웃이되어 트래픽 분산을 할 수 있으며 사용 리소스에 따라 컨테이너를 오케스트레이션하여 비용을 절감시킨다고 알고 있습니다. 그러나 생각보니 실질적으로 가상머신 내부의 컨테이너 기술을 사용하는거고 가상머신 자체를 스케일다운을 하지 않는 이상은 컨테이너 영역에서의 오케스트레이션으로 비용절감이 의미가 있을지 궁금합니다. (컨테이너 기반 서버의 수는 리소스에 따라 감소하나 실제 윗단 가상OS의 스케일 다운은 자동적으로 처리가 안되기 때문입니다.) 이에 관련하여 왜 컨테이너를 사용시 비용이 절감되는지 자세한 이유를 설명듣고 싶습니다. 감사합니다.
- 미해결쉽게 시작하는 쿠버네티스(v1.25)
Polaris vs Kubernetes Dashboard
Polaris는 설치 및 UI가 심플하고 좋습니다. Kubernetes가 제공하는 Dashboard 설치내용도 시간나실때 올려주시면 감사하겠습니다. 그리고 강의 PPT자료도 공유 가능하시면 부탁드립니다. 그림,아이콘 재활용하고 싶어서요. 감사합니다.
- 미해결쉽게 시작하는 쿠버네티스(v1.25)
M1 맥북에선 virtual box의 리눅스 이미지가 동작을 안해서요
혹시 다른 방법은 없을까요?
- 미해결쉽게 시작하는 쿠버네티스(v1.25)
맥에서는 어떻게 실행을 해야할까요....
ㅠㅠ
- 미해결쉽게 시작하는 쿠버네티스(v1.25)
vargant up 문제입니다.
강의와 관련있는 질문을 남겨주세요.• 강의와 관련이 없는 질문은 지식공유자가 답변하지 않을 수 있습니다. (사적 상담, 컨설팅, 과제 풀이 등)• 질문을 남기기 전, 비슷한 내용을 질문한 수강생이 있는지 먼저 검색을 해주세요. (중복 질문을 자제해주세요.)• 서비스 운영 관련 질문은 인프런 우측 하단 ‘문의하기’를 이용해주세요. (영상 재생 문제, 사이트 버그, 강의 환불 등) 질문 전달에도 요령이 필요합니다.• 지식공유자가 질문을 좀 더 쉽게 확인할 수 있게 도와주세요.• 강의실 페이지(/lecture) 에서 '질문하기'를 이용해주시면 질문과 연관된 수업 영상 제목이 함께 등록됩니다.• 강의 대시보드에서 질문을 남길 경우, 관련 섹션 및 수업 제목을 기재해주세요. • 수업 특정 구간에 대한 질문은 꼭 영상 타임코드를 남겨주세요! 구체적인 질문일수록 명확한 답을 받을 수 있어요.• 질문 제목은 핵심 키워드를 포함해 간결하게 적어주세요.• 질문 내용은 자세하게 적어주시되, 지식공유자가 답변할 수 있도록 구체적으로 남겨주세요.• 정확한 질문 내용과 함께 코드를 적어주시거나, 캡쳐 이미지를 첨부하면 더욱 좋습니다. 기본적인 예의를 지켜주세요.• 정중한 의견 및 문의 제시, 감사 인사 등의 커뮤니케이션은 더 나은 강의를 위한 기틀이 됩니다. • 질문이 있을 때에는 강의를 만든 지식공유자에 대한 기본적인 예의를 꼭 지켜주세요. • 반말, 욕설, 과격한 표현 등 지식공유자를 불쾌하게 할 수 있는 내용은 스팸 처리 등 제재를 가할 수 있습니다. 안녕하세요. 강의 잘듣고 있습니다. vagrant up 시 에러가 나서 문의 드립니다. 현재 환경은 linuxmint 20 (ubuntu 20.04) 입니다. vagrant up시 아래와 같은 에러가 나옵니다. w1-k8s-1.20: Loaded plugins: fastestmirror w1-k8s-1.20: Loading mirror speeds from cached hostfile w1-k8s-1.20: * base: ftp.iij.ad.jp w1-k8s-1.20: * extras: ftp.iij.ad.jp w1-k8s-1.20: * updates: ftp.iij.ad.jp w1-k8s-1.20: Retrieving key from https://packages.cloud.google.com/yum/doc/yum-key.gpg w1-k8s-1.20: Importing GPG key 0xA7317B0F: w1-k8s-1.20: Userid : "Google Cloud Packages Automatic Signing Key <gc-team@google.com>" w1-k8s-1.20: Fingerprint: d0bc 747f d8ca f711 7500 d6fa 3746 c208 a731 7b0f w1-k8s-1.20: From : https://packages.cloud.google.com/yum/doc/yum-key.gpg w1-k8s-1.20: Retrieving key from https://packages.cloud.google.com/yum/doc/rpm-package-key.gpg w1-k8s-1.20: https://packages.cloud.google.com/yum/repos/kubernetes-el7-x86_64/repodata/repomd.xml: [Errno -1] repomd.xml signature could not be verified for kubernetes w1-k8s-1.20: Trying other mirror. w1-k8s-1.20: w1-k8s-1.20: w1-k8s-1.20: One of the configured repositories failed (Kubernetes), w1-k8s-1.20: and yum doesn't have enough cached data to continue. At this point the only w1-k8s-1.20: safe thing yum can do is fail. There are a few ways to work "fix" this: w1-k8s-1.20: w1-k8s-1.20: 1. Contact the upstream for the repository and get them to fix the problem. w1-k8s-1.20: w1-k8s-1.20: 2. Reconfigure the baseurl/etc. for the repository, to point to a working w1-k8s-1.20: upstream. This is most often useful if you are using a newer w1-k8s-1.20: distribution release than is supported by the repository (and the w1-k8s-1.20: packages for the previous distribution release still work). w1-k8s-1.20: w1-k8s-1.20: 3. Run the command with the repository temporarily disabled w1-k8s-1.20: yum --disablerepo=kubernetes ... w1-k8s-1.20: w1-k8s-1.20: 4. Disable the repository permanently, so yum won't use it by default. Yum w1-k8s-1.20: will then just ignore the repository until you permanently enable it w1-k8s-1.20: again or use --enablerepo for temporary usage: w1-k8s-1.20: w1-k8s-1.20: yum-config-manager --disable kubernetes w1-k8s-1.20: or w1-k8s-1.20: subscription-manager repos --disable=kubernetes w1-k8s-1.20: w1-k8s-1.20: 5. Configure the failing repository to be skipped, if it is unavailable. w1-k8s-1.20: Note that yum will try to contact the repo. when it runs most commands, w1-k8s-1.20: so will have to try and fail each time (and thus. yum will be be much w1-k8s-1.20: slower). If it is a very temporary problem though, this is often a nice w1-k8s-1.20: compromise: w1-k8s-1.20: w1-k8s-1.20: yum-config-manager --save --setopt=kubernetes.skip_if_unavailable=true w1-k8s-1.20: w1-k8s-1.20: failure: repodata/repomd.xml from kubernetes: [Errno 256] No more mirrors to try. w1-k8s-1.20: https://packages.cloud.google.com/yum/repos/kubernetes-el7-x86_64/repodata/repomd.xml: [Errno -1] repomd.xml signature could not be verified for kubernetes w1-k8s-1.20: Failed to execute operation: No such file or directory w1-k8s-1.20: Failed to execute operation: No such file or directory The SSH command responded with a non-zero exit status. Vagrant assumes that this means the command failed. The output for this command should be in the log above. Please read the output to determine what went wrong.
- 해결됨쉽게 시작하는 쿠버네티스(v1.25)
worker node, not ready 시 어떻게 해야 하나요?
컴퓨터를 끄고 다시 켜니 master node만 ready이고 worker node들 전부가 not ready이네요 자동으로 살아나지 않을까 싶어 kubectl delete를 통해 worker node1만 지웠는데 안 살아나네요 이런 경우 어떻게 해야할까요? 밑에는 현재 노드들 정보와 w2 노드의 describe정보 입니다. [root@m-k8s k8s-min-5GiB]# kubectl describe node w2-k8s Name: w2-k8s Roles: <none> Labels: beta.kubernetes.io/arch=amd64 beta.kubernetes.io/os=linux kubernetes.io/arch=amd64 kubernetes.io/hostname=w2-k8s kubernetes.io/os=linux Annotations: kubeadm.alpha.kubernetes.io/cri-socket: /var/run/dockershim.sock node.alpha.kubernetes.io/ttl: 0 projectcalico.org/IPv4Address: 192.168.1.102/24 projectcalico.org/IPv4IPIPTunnelAddr: 172.16.103.128 volumes.kubernetes.io/controller-managed-attach-detach: true CreationTimestamp: Thu, 25 Mar 2021 02:16:10 +0900 Taints: node.kubernetes.io/unreachable:NoExecute node.kubernetes.io/unreachable:NoSchedule Unschedulable: false Lease: HolderIdentity: w2-k8s AcquireTime: <unset> RenewTime: Thu, 25 Mar 2021 03:10:05 +0900 Conditions: Type Status LastHeartbeatTime LastTransitionTime Reason Message ---- ------ ----------------- ------------------ ------ ------- NetworkUnavailable False Thu, 25 Mar 2021 02:16:53 +0900 Thu, 25 Mar 2021 02:16:53 +0900 CalicoIsUp Calico is running on this node MemoryPressure Unknown Thu, 25 Mar 2021 03:07:19 +0900 Thu, 25 Mar 2021 03:10:48 +0900 NodeStatusUnknown Kubelet stopped posting node status. DiskPressure Unknown Thu, 25 Mar 2021 03:07:19 +0900 Thu, 25 Mar 2021 03:10:48 +0900 NodeStatusUnknown Kubelet stopped posting node status. PIDPressure Unknown Thu, 25 Mar 2021 03:07:19 +0900 Thu, 25 Mar 2021 03:10:48 +0900 NodeStatusUnknown Kubelet stopped posting node status. Ready Unknown Thu, 25 Mar 2021 03:07:19 +0900 Thu, 25 Mar 2021 03:10:48 +0900 NodeStatusUnknown Kubelet stopped posting node status. Addresses: InternalIP: 192.168.1.102 Hostname: w2-k8s Capacity: cpu: 1 ephemeral-storage: 38770180Ki hugepages-2Mi: 0 memory: 1014764Ki pods: 110 Allocatable: cpu: 1 ephemeral-storage: 35730597829 hugepages-2Mi: 0 memory: 912364Ki pods: 110 System Info: Machine ID: d0cc7f8f61e348aba24d3920bbe02ce5 System UUID: CCD4F52A-56DC-4B85-A80C-89882351D7D9 Boot ID: 3f854fbc-589b-4cd5-baad-b31a70ab7c37 Kernel Version: 3.10.0-1127.19.1.el7.x86_64 OS Image: CentOS Linux 7 (Core) Operating System: linux Architecture: amd64 Container Runtime Version: docker://19.3.14 Kubelet Version: v1.20.2 Kube-Proxy Version: v1.20.2 PodCIDR: 172.16.2.0/24 PodCIDRs: 172.16.2.0/24 Non-terminated Pods: (2 in total) Namespace Name CPU Requests CPU Limits Memory Requests Memory Limits AGE --------- ---- ------------ ---------- --------------- ------------- --- kube-system calico-node-zqcds 250m (25%) 0 (0%) 0 (0%) 0 (0%) 3d23h kube-system kube-proxy-wmqs2 0 (0%) 0 (0%) 0 (0%) 0 (0%) 3d23h Allocated resources: (Total limits may be over 100 percent, i.e., overcommitted.) Resource Requests Limits -------- -------- ------ cpu 250m (25%) 0 (0%) memory 0 (0%) 0 (0%) ephemeral-storage 0 (0%) 0 (0%) hugepages-2Mi 0 (0%) 0 (0%) Events: <none>