작성
·
60
1
master 에서 join.sh 내용출력이 안됩니다.
worker node1 접속 후 토큰 붙여놓기 후
아래와 같이 출력됩니다.
[root@k8s-worker1 ~]# kubeadm join 192.168.56.30:6443 --token fdfwp6.t3ccgvnu2mdzdilt --discovery-token-ca-cert-hash sha256:fc087710b4581cea2a70d62948902e219b9d60ef8767749dc8595118fb5bdf68
[preflight] Running pre-flight checks
error execution phase preflight: couldn't validate the identity of the API Server: configmaps "cluster-info" is forbidden: User "system:anonymous" cannot get resource "configmaps" in API group "" in the namespace "kube-public"
To see the stack trace of this error execute with --v=5 or higher
답변 2
0
일단 master는 정상적으로 동작하고 있는 상태일까요?
kubectl get pod -A 를 했을 때 모든 Pod들이 Running 인지 확인이 필요합니다.
그리고 master에서 아래 명령을 직접 실행해서 토큰을 발급 받고,
kubeadm token create --print-join-command
출력된 내용을 다시 한번 workernode에서 실행해 보시겠어요?
해당 로그는 정상적으로 VM이 기동이 됐다는 거고요.
master-node에 들어가서 아래 명령을 입력했을 때 결과가 어떻게 나오실까요?
kubectl get pod -A
0
안녕하세요, 인프런 AI 인턴입니다.
djhwang님께서 작성하신 질문은 Kubernetes 설정 중 kubeadm join
명령어를 실행할 때 발생하는 권한 문제에 대한 것인 것 같습니다. 이 문제는 주로 노드와 마스터 간의 인증 또는 네트워크 설정 문제로 인해 발생할 수 있습니다. 비슷한 문제와 해결 방법을 다룬 기존의 질문들을 안내해드리겠습니다.
“k8s-node2 연결 문제”: 이 게시물에서는 노드와 마스터 간의 버전 불일치가 원인이 될 수 있으며, 설정이 정확한지 확인하는 방법에 대해 설명하고 있습니다. 특히, 버전 차이가 문제의 원인인지 확인해 보실 필요가 있습니다.
“m1 mac k8s 설치하였는데, 노드 2가 연결이 제대로 되지 않은 것 같습니다.”: 여기서는 네트워크 설정 관련 문제 해결 방안이 제시되어 있습니다. 보안 그룹, 방화벽 설정이 클러스터 구성에 영향을 미칠 수 있습니다.
이 문제의 일반적인 해결 방법으로는 다음과 같은 것들이 있습니다:
- 토큰 및 설정 확인: 정확한 토큰과 설정 파일을 사용하고 있는지를 재확인합니다.
- 권한 및 네트워크 설정: Kubernetes의 각 노드가 서로 올바르게 통신할 수 있는지, 필요한 네트워크 포트가 열려 있는지를 점검합니다.
- 클러스터 정보 확인: kubectl config view
명령어를 통해 현재 컨텍스트와 관련된 클러스터 정보가 올바른지 확인합니다.
참고하신 정보를 바탕으로 문제를 해결하시길 바라며, 추가적인 어려움이 있으시면 추가 질문 부탁드립니다. 곧 지식공유자께서도 도움을 주실 것입니다.
저는 질문자님의 이해를 돕고자 지식공유자님의 기존 답변을 참고하여 유사한 답변 링크를 추천해드리고 있습니다. 현재 베타 기능으로 답변이 만족스럽지 않을 수 있는 점 양해 부탁드립니다. 🙏 추가적으로 궁금한 점이 있으시면, 이어서 질문해 주세요. 곧 지식공유자께서 답변해 주실 것입니다.
vagrant up 메시지가 아래와 같이 나옵니다.
Bringing Checking if box 'rockylinux/8' version '10.0.0' is up to date.machine 'master-node' up with 'virtualbox' provider...
Bringing machine 'worker-node1' up with 'virtualbox' provider...
Bringing machine 'worker-node2' up with 'virtualbox' provider...
==> master-node: ..
==> master-node: Machine already provisioned. Run
vagrant provision
or use the--provision
==> master-node: flag to force provisioning. Provisioners marked to run always will still run.
==> worker-node1: Checking if box 'rockylinux/8' version '10.0.0' is up to date...
==> worker-node1: Machine already provisioned. Run
vagrant provision
or use the--provision
==> worker-node1: flag to force provisioning. Provisioners marked to run always will still run.
==> worker-node2: Checking if box 'rockylinux/8' version '10.0.0' is up to date...
==> worker-node2: Machine already provisioned. Run
vagrant provision
or use the--provision
==> worker-node2: flag to force provisioning. Provisioners marked to run always will still run.