묻고 답해요
161만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
해결됨데브옵스(DevOps)를 위한 쿠버네티스 마스터
docker를 설치한 VM을 master로 사용해야하나요?
저는 VirtualBox를 사용해서 VM환경을 구성하여 실습을 진행하고 있습니다.현재 섹션 6. 쿠버네티스 네트워크의 강의 중 쿠버네티스 네트워크 - 컨테이너 간의 인터페이스 공유 방법을 들었는데 강의 중 docker를 통해 컨테이너 간의 인터페이스를 공유하는 것을 보여주셨습니다.VM 환경 구성 중 master를 섹션 1에서 도커를 사용할 때 사용한 VM으로 사용 해야하나요?섹션 2부터 현재까지 docker를 사용하지 않아서 구성한 환경에는 docker가 없기에 질문 드립니다.
-
해결됨대세는 쿠버네티스 (초급~중급편)
vagrant up 생성 도중 자동 삭제 오류
dfvagrant up Bringing machine 'k8s-master' up with 'virtualbox' provider... Bringing machine 'k8s-node1' up with 'virtualbox' provider... Bringing machine 'k8s-node2' up with 'virtualbox' provider... ==> k8s-master: Importing base box 'centos/7'... ==> k8s-master: Matching MAC address for NAT networking... ==> k8s-master: Checking if box 'centos/7' version '2004.01' is up to date... ==> k8s-master: Setting the name of the VM: k8s_k8s-master_1698817614061_95680 ==> k8s-master: Clearing any previously set network interfaces... ==> k8s-master: Preparing network interfaces based on configuration... k8s-master: Adapter 1: nat k8s-master: Adapter 2: hostonly ==> k8s-master: Forwarding ports... k8s-master: 22 (guest) => 2222 (host) (adapter 1) ==> k8s-master: Running 'pre-boot' VM customizations... ==> k8s-master: Booting VM... ==> k8s-master: Waiting for machine to boot. This may take a few minutes... k8s-master: SSH address: 127.0.0.1:2222 k8s-master: SSH username: vagrant k8s-master: SSH auth method: private key k8s-master: k8s-master: Vagrant insecure key detected. Vagrant will automatically replace k8s-master: this with a newly generated keypair for better security. k8s-master: k8s-master: Inserting generated public key within guest... k8s-master: Removing insecure key from the guest if it's present... k8s-master: Key inserted! Disconnecting and reconnecting using new SSH key... ==> k8s-master: Machine booted and ready! ==> k8s-master: Checking for guest additions in VM... k8s-master: No guest additions were detected on the base box for this VM! Guest k8s-master: additions are required for forwarded ports, shared folders, host only k8s-master: networking, and more. If SSH fails on this machine, please install k8s-master: the guest additions and repackage the box to continue. k8s-master: k8s-master: This is not an error message; everything may continue to work properly, k8s-master: in which case you may ignore this message. ==> k8s-master: Attempting graceful shutdown of VM... ==> k8s-master: Destroying VM and associated drives... C:/Program Files (x86)/Vagrant/embedded/gems/gems/i18n-1.14.1/lib/i18n.rb:210:in `translate': wrong number of arguments (given 2, expected 0..1) (ArgumentError)이렇게 진행이 되며 VM 이 생성 되다가 삭제 됩니다.ㅠㅠ뭐가 잘못되고 있는 걸까요..?답변 부탁 드립니다.
-
미해결데브옵스(DevOps)를 위한 쿠버네티스 마스터
http-go 이미지는 몇 강에서 확인할 수 있을까요?
섹션 4에서 포드 디스크립터 작성을 보는 중에 go-http-pod.yaml 파일을 작성하셨는데kubectl create -f go-http-pod.yaml 명령어 실행 후kubectl get pod http-go를 실행하니 Status가 ImagePullBackOff 로 나옵니다.강의 영상에서는 저번에 만들어두셨다고 하셨는데 어떤 강의에서 이미지를 확인할 수 있을까요?
-
미해결대세는 쿠버네티스 (Helm편)
TOMCAT 분석에 있는 내용 중 궁금한 게 있습니다.
include1: {{- include "mychart.include" (dict "key1" "value1") | nindent 4 }} 의 의미를 잘 모르겠습니다."- include" 와 include 의 차이는 무엇인지 ? mychart.include 라는 변수는 어디에 정의되어 있으며 어떻게 정의되어 있는 건지?mychart.include 즉 가져온 변수는 dict 와 어떻게 결합되어 사용되어 지는건지 ?부탁드립니다.
-
미해결데브옵스(DevOps)를 위한 쿠버네티스 마스터
왜 갑자기 master가 등장했는지 ; 어느 강의를 따라가면 Master로 접속이 가능한가요 Gcp로 밑에 강의들을 따라가면되나요?
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요.
-
미해결CloudNet@ - Amazon EKS 기본 강의
ingress 문제
ingress에 address가 안 생기는데 뭐가 문제인지 알 수 있을까요?
-
해결됨대세는 쿠버네티스 (초급~중급편)
vagrant up -> imag pull 단계 멈춤
vagarant up 시 [preflight] You can also perform this action in beforehand using 'kubeadm config images pull'단계에서 1시간 가량 멈추어서 질문드립니다. 서버 로그는 아래와 같으며VirtualBox, vagrant, host os 버젼은 교재와 동일합니다. vagrant vbguest 의 경우 3.0 버젼으로 진행 시 중간에 마운트 에러가 발생하여 0.21 로 버젼 강제하였습니다. https://ballistic-uncle-12b.notion.site/console-log-243c674068b84f6baf1eededae1cb987?pvs=4
-
미해결그림으로 배우는 쿠버네티스(v1.30) - {{ x86-64, arm64 }}
ECK 2.9 구성 상의 문제입니다
VM 환경 4대에 각각 mater 1 대 , worknode 3대 , calico 네트워크 환경으로 구성된 상태입니다.이 환경에서 ECK 를 설치해 보려고 하는데 진행이 잘 되지 않습니다.진행 중 elasticsearch pod 상태가 pending에서 진행이 되지 않고 있으며 persistentVolume 상태가 pending 중입니다. 볼륨 구성 시 문제가 되는 것 같은데 방법을 잘 모르겠습니다. 혹시 도움을 받을 수 있을까요..?참고로 볼륨 로그를 확인해 본 결과 no persistent volumes available for this claim and no storage class is set으로 확인 되었습니다.
-
미해결Jenkins를 이용한 CI/CD Pipeline 구축
AWS 서버 구성 문의
기존에 젠킨스를 돌리고 있는 리눅스 서버를 운영중에 있습니다.이번 강의를 계기로 SonarQube, Ansible, Kubernetes 를 추가로 운영하려고 합니다.현재 저희팀은 FrontEnd/BackeEnd 프로젝트를 하나 진행하고 있습니다. 그리고 이를 AWS 에 배포 준비중이어서 AWS 인스턴스를 하나 운영중에 있습니다. (유료 버전 사용중) 현재 강의 실습에서는 AWS 에 개별 인스턴스를 따로따로 구동시키는 상황을 가정해서 진행하고 있는데, 이럴 경우 프리티어의 경우 1년까지는 무료지만 1년 이후에는 경우에 따라 비용이 지불되는것으로 알고 있습니다. 이에 아래처럼 진행해볼까 하는데 가능한 방법일지요? 혹은 추천하실만한 설계가 있으시면 조언도 부탁드리겠습니다. 기존 젠킨스 리눅스 서버 -> 유지++ 여기에 Docker 로 SonarQube, Ansible 서버 추가++ 기존 사용중인 AWS 인스턴스에 Kubernetes 서버 추가++ Docker 형태로 F/E, B/E 배포 제가 개념을 잘못 잡고 있거나, 다른 더 좋은 방법이 있으시다면 조언 부탁드리겠습니다. 좋은 강의 감사드립니다~
-
미해결데브옵스(DevOps)를 위한 쿠버네티스 마스터
sudo docker exec -it WP /bin/bash
sudo docker exec -it WP /bin/bash 명령어 입력시 Error response from daemon: Container f6787fae8c1470d70df28decac829f478fb0cfee5ee0eed896c141d33387cf66 is not running이 에러가 발생하여docker ps -a 명령어 입력해서 컨테이너가 있는 지 확인하였고docker stop WPdocker start WP시도하고 다시 명령어 입력해도 같은 에러가 발생하는데 어떤 문제 일까요
-
해결됨멀티OS 사용을 위한 가상화 환경 구축 가이드 (Docker + Kubernetes)
(정보공유) vagrant up 할 때 SSH auth method: private key 문구에서 멈출 때 해결방법 공유합니다.
Window 환경에서 실습을 하는데,이상하게 저는 vagrant up 하고나서SSH auth method: private key이라는 문구가 콘솔에 찍히고, 완전히 멈추는 현상이 있었습니다.검색을 해보니 제법 흔한 일인듯, 검색결과가 많이 나왔고해결법은 다음과 같았습니다. # Master config.vm.define:"k8s-master" do |cfg| cfg.vm.box = "generic/ubuntu2004" cfg.vm.provider:virtualbox do |vb| vb.name="K8s-Master" vb.cpus = 2 vb.memory = 2048 # !!!!!! 아래 2줄 추가 !!!!!! vb.customize ["modifyvm", :id, "--uart1", "0x3F8", "4"] vb.customize ["modifyvm", :id, "--uartmode1", "file", File::NULL] end # ... 생략 ... end 참고링크 : https://github.com/hashicorp/vagrant/issues/11777 만~약에 그래도 안되면 아래처럼 세팅하고 다시 한번 시도해보시길 바랍니다.vb.customize [ "modifyvm", :id, "--uartmode1", "disconnected" ] vb.customize [ "modifyvm", :id, "--uartmode1", "file", File::NULL ] vb.customize [ "modifyvm", :id, "--uart1", "0x3F8", "4" ] vb.customize [ "modifyvm", :id, "--cableconnected1", "on" ]
-
미해결Jenkins를 이용한 CI/CD Pipeline 구축
CD job 에서 왜 빌드를 또 수행하는지 모르겠어요.
섹션4의 마지막 실습강의 (실습8) 에서 보면CI job 으로 My-K8s-Project-for-CI 를 돌리고CD job 으로 My-K8s-Project-using-Ansible 을 돌리는데,My-K8s-Project-using-Ansible 에서도 github 에서 소스코드를 pull 해서 빌드를 하도록 되어있습니다.이부분은 이미 CI job 에서 수행해서 docker image 로 docker hub 에 등록한 상황이고 , CD job 에서는 이 docker hub 로부터 이미지를 pull 해 와서 kubernetes 관련 일만 해야할것 같은데요. 제 이해가 맞을지요?git 소스를 댕겨와서 빌드를 하는 과정은 CI 에서만 해야하는것이 아닌가요?
-
미해결대세는 쿠버네티스 (초급~중급편)
pod-1 생성 후 curl 응답이 없네요
환경 : aws ec2 / centos 7.9 / v1.22.0 영상보고 pod-1 생성은 된거 같습니다. 그런데 curl 명령 실행시 응답이 없습니다. [root@k8s-master ~]# kubectl get pods -A -o wide NAMESPACE NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES calico-system calico-kube-controllers-8fdfc695-69ch4 1/1 Running 1 (4m11s ago) 100m 20.108.82.200 k8s-master <none> <none> calico-system calico-node-84fcs 1/1 Running 1 (4m11s ago) 100m 192.168.56.30 k8s-master <none> <none> calico-system calico-node-pqfwm 1/1 Running 0 98m 192.168.56.31 k8s-node1 <none> <none> calico-system calico-node-tt922 1/1 Running 0 98m 192.168.56.32 k8s-node2 <none> <none> calico-system calico-typha-c477bcd79-2fv8g 1/1 Running 1 (4m4s ago) 100m 192.168.56.30 k8s-master <none> <none> calico-system calico-typha-c477bcd79-6xgkn 1/1 Running 0 98m 192.168.56.31 k8s-node1 <none> <none> calico-system csi-node-driver-4lght 2/2 Running 0 98m 20.111.156.65 k8s-node1 <none> <none> calico-system csi-node-driver-pj7zm 2/2 Running 0 97m 20.109.131.1 k8s-node2 <none> <none> calico-system csi-node-driver-vzfdn 2/2 Running 2 (4m11s ago) 100m 20.108.82.203 k8s-master <none> <none> default pod-1 2/2 Running 0 41m 20.109.131.2 k8s-node2 <none> <none> kube-system coredns-78fcd69978-ncl62 1/1 Running 26 (5m19s ago) 110m 20.108.82.199 k8s-master <none> <none> kube-system coredns-78fcd69978-zdvl2 1/1 Running 1 (4m6s ago) 110m 20.108.82.201 k8s-master <none> <none> kube-system etcd-k8s-master 1/1 Running 1 (4m11s ago) 111m 192.168.56.30 k8s-master <none> <none> kube-system kube-apiserver-k8s-master 1/1 Running 1 (4m1s ago) 111m 192.168.56.30 k8s-master <none> <none> kube-system kube-controller-manager-k8s-master 1/1 Running 1 (4m11s ago) 111m 192.168.56.30 k8s-master <none> <none> kube-system kube-proxy-m82wz 1/1 Running 1 (4m11s ago) 110m 192.168.56.30 k8s-master <none> <none> kube-system kube-proxy-qmhcv 1/1 Running 0 98m 192.168.56.31 k8s-node1 <none> <none> kube-system kube-proxy-vsh5v 1/1 Running 0 98m 192.168.56.32 k8s-node2 <none> <none> kube-system kube-scheduler-k8s-master 1/1 Running 1 (4m11s ago) 111m 192.168.56.30 k8s-master <none> <none> kubernetes-dashboard dashboard-metrics-scraper-856586f554-qwmzq 1/1 Running 1 (4m11s ago) 99m 20.108.82.198 k8s-master <none> <none> kubernetes-dashboard kubernetes-dashboard-5949b5c856-ql8vx 1/1 Running 1 (4m11s ago) 99m 20.108.82.202 k8s-master <none> <none> tigera-operator tigera-operator-cffd8458f-8z85v 1/1 Running 1 (4m11s ago) 100m 192.168.56.30 k8s-master <none> <none> [root@k8s-master ~]# curl 20.109.131.2:8000 ^C [root@k8s-master ~]# [root@k8s-master ~]# route -n Kernel IP routing table Destination Gateway Genmask Flags Metric Ref Use Iface 0.0.0.0 192.168.56.1 0.0.0.0 UG 0 0 0 eth0 20.108.82.192 0.0.0.0 255.255.255.192 U 0 0 0 * 20.108.82.198 0.0.0.0 255.255.255.255 UH 0 0 0 cali6c5795e996a 20.108.82.199 0.0.0.0 255.255.255.255 UH 0 0 0 cali054099bed35 20.108.82.200 0.0.0.0 255.255.255.255 UH 0 0 0 cali7b0ee01ff08 20.108.82.201 0.0.0.0 255.255.255.255 UH 0 0 0 cali2d518c9126c 20.108.82.202 0.0.0.0 255.255.255.255 UH 0 0 0 calib55986b3261 20.108.82.203 0.0.0.0 255.255.255.255 UH 0 0 0 cali1dae5a2bc74 20.109.131.0 192.168.56.32 255.255.255.192 UG 0 0 0 eth0 20.111.156.64 192.168.56.31 255.255.255.192 UG 0 0 0 eth0 172.17.0.0 0.0.0.0 255.255.0.0 U 0 0 0 docker0 192.168.56.0 0.0.0.0 255.255.255.0 U 0 0 0 eth0 [root@k8s-master ~]# AWS SG에는 ec2간 tcp,udp는 모두 허용했구요.20.0.0.0/8 대역도 tcp,udp 통신 모두 허용했습니다. 어느부분을 더 확인해봐야 할까요?
-
미해결대세는 쿠버네티스 (초급~중급편)
Kubernetes Cluster 설치흐름 [v1.15] (강의 실습버전) (음성없음) 문의 드립니다
수고하십니다.다름 아니라 제가 맥환경에서Kubernetes Cluster 설치흐름 [v1.15] (강의 실습버전) (음성없음)실습과정을 따라하던중 virtualbox 7.x 에서 vm으로 환경설정을 3번이나 동일하게 따라했고 다 되었는데요맥 Termius 에서 도저히 버추얼박스내 구축한192.168.0.30번의 가상머신이 ssh로 연결이 안되어서요virtualbox에서 vm 실행해서는 root 비밀번호 쳐서 접속이 되는데 맥용 터미널에서만 도저히 안되네요참고로 저는 인텔칩이구요 왜 그럴까요?Kubernetes Cluster 설치 [v1.22] (최신, 쉬운설치 버전) 은 잘 맥 Termius에서 virtualbox vm에 잘 접속이 됩니다.모든 설정을 그대로 따라 햇는데요...정말로 안되어서 문의 드리오니 문의 부탁드립니다.. ㅜㅜ제가 모르는 맥 설정이 있는지요??
-
미해결Jenkins를 이용한 CI/CD Pipeline 구축
ec2 환경의 sonarqube
ec2 환경의 sonarqube는 실습에 없어서 혼자 할려다가 못하겠어요... maven 빌드까지 하고 그걸 어떻게 sonarqube로 옮기는지 모르겠어요 강의 영상 만들어주세요 ㅜㅜ
-
미해결대세는 쿠버네티스 (Helm편)
헬름은 롤백 기능을 지원하지 않는지요?
강사님 아직 강의를 다 듣지 못해서 질문 드릴 수 있는거 일수도 있으나 혹시 helm 은 롤백 기능이 없는건지 여쭤 봅니다.
-
해결됨Jenkins를 이용한 CI/CD Pipeline 구축
Linux 에서 젠킨스 서버를 운영중이라면...
저는 이미 리눅스 서버가 하나있고 여기에 젠킨스 서버를 운영하고 있습니다.이 경우 강의 내용중 docker linux 부분만 개념에서 제외하고 이해하고 있는데요, 문제는 실습 등에서 여전히 헷갈리는 부분이 있습니다. 예를들면 docker 로 ssh-server 를 설치할 경우인데요, edowon0623 docker 이미지에는 윈도우즈 용과 맥용만 있습니다. 리눅스용은 없어서 일단 intel tag 용을 받아서 설치하면 컨테이너가 실행까지는 됩니다 (제 리눅스 서버에서).하지만 ssh 접속시에 key_exchange_identification: Connection closed by remote host 에러가 납니다. (이미 질문한 분이 있더군요)인텔칩 맥에서는 해결이 됐을지라도 저는 여전히 발생합니다. 제가 아직 docker 개념이 없어서 그러는 걸수도 있는데...저같은 경우에도 docker+ssh server 가 필요한가요?ssh server 로 젠킨스가 파일을 업로드하려면 필요할것 같기도 한데요. (어차피 docker 라는게 가상의 서버,PC 를 한대 더 두는 개념이니까, 저는 리눅스의 젠킨스에서 가상의 ssh-server 로 통신하는걸 가정하는거니까요)만약 그렇다면 리눅스용 ssh-server docker image 를 찾아서 설치해야 하는 건지요...? 여기서 더 진도가 못나가고 있어 답답하네요.... 강의는 개인적으로 너무 잘 듣고 있습니다 ^^(주먹구구로 젠킨스를 운영해왔기에 이참에 체계적으로 개념을 쌓으려고 합니다)
-
미해결대세는 쿠버네티스 (초급~중급편)
다른 네임스네이스로 pod 서비스 연결
kind: Ingress apiVersion: networking.k8s.io/v1 metadata: name: test-ing-wan namespace: test-wan spec: ingressClassName: user-ingress-class rules: - host: wan.test.com http: paths: - path: / pathType: Prefix backend: service: name: test-svc-wan port: number: 8080 ----------------------------------------------- kind: Service apiVersion: v1 metadata: name: test-svc-wan namespace: test-wan spec: ports: - protocol: TCP port: 8080 targetPort: 8080 type: ExternalName sessionAffinity: None externalName: test-deploy-lan.test-lan.svc.cluster.local internalTrafficPolicy: Cluster status: loadBalancer: {}kind: Service apiVersion: v1 metadata: name: test-deploy-lan namespace: test-lan spec: ports: - name: http-port protocol: TCP port: 8080 targetPort: 8080 nodePort: 31141 selector: app: test-deploy-lan clusterIP: 10.96.138.89 clusterIPs: - 10.96.138.89 type: NodePort sessionAffinity: None externalTrafficPolicy: Cluster ipFamilies: - IPv4 ipFamilyPolicy: SingleStack internalTrafficPolicy: Cluster status: loadBalancer: {}외부망 네임스페이스(test-wan)의 인그레스를 타고 들어와서 내부망 네임스페이스(test-lan)의 서비스에 연결해주려고 하는데 위처럼 502 bad gateway가 뜨며 연결이 되지 않습니다.내부망의 노드포트로 붙으면 서비스 페이지가 동작하는데 도메인으로 연결하면 연결이 되지 않습니다(hosts파일에 IP, 도메인 추가하였습니다)무엇이 문제인지 확인 한번 부탁드립니다.
-
해결됨데브옵스(DevOps)를 위한 쿠버네티스 마스터
nodeport로 접속 불가한 현상
안녕하세요! nodeport 실습 중 막히는 부분이 있어서 질문드립니다. 쿠버네티스 버전은 1.26.0입니다.deployment와 service 배포했습니다. 서비스 nodeport가 31144로 열린 것 확인했습니다. 워커노드에서 iptables -t nat -L KUBE-NODEPORTS | column -t 명령으로 확인하면 이렇게 나옵니다.워커노드에서 curl 172.31.57.126:31144 명령 수행하면 connection refused 에러 나오는데 해결 방법을 알고싶습니다.
-
해결됨대세는 쿠버네티스 (초급~중급편)
vagrant up 오류 문의
안녕하세요. 실습 환경 만들려고 계속 시도중인데요. 며칠 동안 해결이 안되고 있네요. -환경-윈도우10 virtualbox : 6.1.26vagrant : 2.2.18 https://kubetm.github.io/k8s/02-beginner/cluster-install-case6/이 링크 보면서 설치하고 있거든요. 몇 번을 지우고 재설치해도 성공을 못하고 있습니다.도움 부탁드립니다. \k8s>vagrant upBringing machine 'k8s-master' up with 'virtualbox' provider...Bringing machine 'k8s-node1' up with 'virtualbox' provider...Bringing machine 'k8s-node2' up with 'virtualbox' provider...==> k8s-master: Importing base box 'centos/7'...==> k8s-master: Matching MAC address for NAT networking...==> k8s-master: Checking if box 'centos/7' version '2004.01' is up to date...==> k8s-master: Setting the name of the VM: k8s_k8s-master_1697506308375_93844==> k8s-master: Clearing any previously set network interfaces...==> k8s-master: Preparing network interfaces based on configuration... k8s-master: Adapter 1: nat k8s-master: Adapter 2: hostonly==> k8s-master: Forwarding ports... k8s-master: 22 (guest) => 2222 (host) (adapter 1)==> k8s-master: Running 'pre-boot' VM customizations...==> k8s-master: Booting VM...==> k8s-master: Waiting for machine to boot. This may take a few minutes... k8s-master: SSH address: 127.0.0.1:2222 k8s-master: SSH username: vagrant k8s-master: SSH auth method: private key k8s-master: k8s-master: Vagrant insecure key detected. Vagrant will automatically replace k8s-master: this with a newly generated keypair for better security. k8s-master: k8s-master: Inserting generated public key within guest... k8s-master: Removing insecure key from the guest if it's present... k8s-master: Key inserted! Disconnecting and reconnecting using new SSH key...==> k8s-master: Machine booted and ready![k8s-master] No Virtualbox Guest Additions installation found.Loaded plugins: fastestmirrorLoading mirror speeds from cached hostfile * base: mirrors.cat.net * extras: ftp.riken.jp * updates: ftp.riken.jpResolving Dependencies--> Running transaction check---> Package centos-release.x86_64 0:7-8.2003.0.el7.centos will be updated---> Package centos-release.x86_64 0:7-9.2009.1.el7.centos will be an update--> Finished Dependency ResolutionDependencies Resolved================================================================================ Package Arch Version Repository Size================================================================================Updating: centos-release x86_64 7-9.2009.1.el7.centos updates 27 kTransaction Summary================================================================================Upgrade 1 PackageTotal download size: 27 kDownloading packages:No Presto metadata available for updateswarning: /var/cache/yum/x86_64/7/updates/packages/centos-release-7-9.2009.1.el7.centos.x86_64.rpm: Header V3 RSA/SHA256 Signature, key ID f4a80eb5: NOKEYPublic key for centos-release-7-9.2009.1.el7.centos.x86_64.rpm is not installedRetrieving key from file:///etc/pki/rpm-gpg/RPM-GPG-KEY-CentOS-7Importing GPG key 0xF4A80EB5: Userid : "CentOS-7 Key (CentOS 7 Official Signing Key) <security@centos.org>" Fingerprint: 6341 ab27 53d7 8a78 a7c2 7bb1 24c6 a8a7 f4a8 0eb5 Package : centos-release-7-8.2003.0.el7.centos.x86_64 (@anaconda) From : /etc/pki/rpm-gpg/RPM-GPG-KEY-CentOS-7Running transaction checkRunning transaction testTransaction test succeededRunning transaction Updating : centos-release-7-9.2009.1.el7.centos.x86_64 1/2 Cleanup : centos-release-7-8.2003.0.el7.centos.x86_64 2/2 Verifying : centos-release-7-9.2009.1.el7.centos.x86_64 1/2 Verifying : centos-release-7-8.2003.0.el7.centos.x86_64 2/2Updated: centos-release.x86_64 0:7-9.2009.1.el7.centosComplete!Loaded plugins: fastestmirrorLoading mirror speeds from cached hostfile * base: mirrors.cat.net * extras: ftp.riken.jp * updates: ftp.riken.jphttp://vault.centos.org/7.0.1406/os/x86_64/repodata/repomd.xml: [Errno 14] HTTPS Error 301 - Moved PermanentlyTrying other mirror. One of the configured repositories failed (CentOS-7.0.1406 - Base), and yum doesn't have enough cached data to continue. At this point the only safe thing yum can do is fail. There are a few ways to work "fix" this: 1. Contact the upstream for the repository and get them to fix the problem. 2. Reconfigure the baseurl/etc. for the repository, to point to a working upstream. This is most often useful if you are using a newer distribution release than is supported by the repository (and the packages for the previous distribution release still work). 3. Run the command with the repository temporarily disabled yum --disablerepo=C7.0.1406-base ... 4. Disable the repository permanently, so yum won't use it by default. Yum will then just ignore the repository until you permanently enable it again or use --enablerepo for temporary usage: yum-config-manager --disable C7.0.1406-base or subscription-manager repos --disable=C7.0.1406-base 5. Configure the failing repository to be skipped, if it is unavailable. Note that yum will try to contact the repo. when it runs most commands, so will have to try and fail each time (and thus. yum will be be much slower). If it is a very temporary problem though, this is often a nice compromise: yum-config-manager --save --setopt=C7.0.1406-base.skip_if_unavailable=truefailure: repodata/repomd.xml from C7.0.1406-base: [Errno 256] No more mirrors to try.http://vault.centos.org/7.0.1406/os/x86_64/repodata/repomd.xml: [Errno 14] HTTPS Error 301 - Moved Permanently==> k8s-master: Checking for guest additions in VM... k8s-master: No guest additions were detected on the base box for this VM! Guest k8s-master: additions are required for forwarded ports, shared folders, host only k8s-master: networking, and more. If SSH fails on this machine, please install k8s-master: the guest additions and repackage the box to continue. k8s-master: k8s-master: This is not an error message; everything may continue to work properly, k8s-master: in which case you may ignore this message.The following SSH command responded with a non-zero exit status.Vagrant assumes that this means the command failed!yum install -y kernel-devel-`uname -r` --enablerepo=C*-base --enablerepo=C*-updatesStdout from the command:Loaded plugins: fastestmirrorLoading mirror speeds from cached hostfile * base: mirrors.cat.net * extras: ftp.riken.jp * updates: ftp.riken.jpStderr from the command:http://vault.centos.org/7.0.1406/os/x86_64/repodata/repomd.xml: [Errno 14] HTTPS Error 301 - Moved PermanentlyTrying other mirror. One of the configured repositories failed (CentOS-7.0.1406 - Base), and yum doesn't have enough cached data to continue. At this point the only safe thing yum can do is fail. There are a few ways to work "fix" this: 1. Contact the upstream for the repository and get them to fix the problem. 2. Reconfigure the baseurl/etc. for the repository, to point to a working upstream. This is most often useful if you are using a newer distribution release than is supported by the repository (and the packages for the previous distribution release still work). 3. Run the command with the repository temporarily disabled yum --disablerepo=C7.0.1406-base ... 4. Disable the repository permanently, so yum won't use it by default. Yum will then just ignore the repository until you permanently enable it again or use --enablerepo for temporary usage: yum-config-manager --disable C7.0.1406-base or subscription-manager repos --disable=C7.0.1406-base 5. Configure the failing repository to be skipped, if it is unavailable. Note that yum will try to contact the repo. when it runs most commands, so will have to try and fail each time (and thus. yum will be be much slower). If it is a very temporary problem though, this is often a nice compromise: yum-config-manager --save --setopt=C7.0.1406-base.skip_if_unavailable=truefailure: repodata/repomd.xml from C7.0.1406-base: [Errno 256] No more mirrors to try.http://vault.centos.org/7.0.1406/os/x86_64/repodata/repomd.xml: [Errno 14] HTTPS Error 301 - Moved PermanentlyC:\Users\SungwookCho\k8s>