• 카테고리

    질문 & 답변
  • 세부 분야

    데브옵스 · 인프라

  • 해결 여부

    미해결

tigera-operator 관련 질문 (eviction loop)

24.03.19 01:30 작성 24.03.19 01:30 수정 조회수 110

1

  • 실습에 문제 발생 시 최대한 캡쳐 화면을 꼭 올려 주세요. (원인 파악에 도움이 큽니다)

  • 영상 내용 질문 시 해당 영상 제목과 내용이 있는 시간을 같이 올려주세요. (내용을 다시 들어보고 답변을 드리기 위해서 입니다)

  • 긴 로그는 제 메일로 보내주세요. (k8s.1pro@gmail.com)

  • 카페 [강의 자료실]에도 많은 질문과 답변들이 있어요!

cafe: https://cafe.naver.com/kubeops

kubenetes cluster를 설치하고 있습니다
강사님께서 알려주신 아래 파일과 동일하게 설치하고 있습니다. (master ip만 제 서버에 맞게 설치했습니다)

cat << EOF >> /etc/hosts
192.168.56.30 k8s-master --> 제 ip
EOF

https://raw.githubusercontent.com/k8s-1pro/install/main/ground/k8s-1.27/vagrant-2.3.4/Vagrantfile

esxi, centos8 3cpu 10GB memory 100GB의 서버에 설치해 수업을 수강 중인 학생입니다.

/tigera-operator        tigera-operator-84cf9b6dbb-qnvz9             1/1     Running   0          3m

tigera-operator가 문제가 있습니다

가끔 tigera-operator eviction loop 처럼 무한정 pod가 생겨서, 서버 자원을 채워서 메모리와 디스크 부족으로 pod이 생기지 않는데요

아래와 유사하지만 저의 경우
https://github.com/projectcalico/calico/issues/8110

위 tigera-operator가 pod가 무한정 생겼습니다


혹시 이런 경우, 어떻게 대처할 수 있을까요?

이런 문제가 있을 때마다, 그냥 재설치를 하곤 하는데, 정답은 아닌 것 같아 질문드립니다.

아직 쿠버네티스를 잘 몰라서, 이런 문제는 어떻게 대처해야할지 검색해도 잘 모르겠습니다

답변 2

·

답변을 작성해보세요.

1

yuki님의 프로필

yuki

질문자

2024.03.19

imageimageloki grafana prometheus를 설치한 후, tigera-operator가 바로 이런 식으로 늘어나게 됩니다...!
직접적인 원인이 loki grafana prometheus인지는 모르겠으나, k8s cluster를 설치한 후, 위 모니터링을 이어서 설치하고 나서, "위와 같이 계속 증식하는 상황을 발견했습니다.

0

안녕하세요.

Disk 10기가는 부족합니다. 이건 Vagrant로 Virtualbox에 VM 생성시 기본 디스크 사이즈고요.

모니터링 설치하고 나면 여유 디스크가 별로 없게 되요.

그래서 저도 그런 현상이 많았습니다.

그리고 제 설치 가이드에는 Disk를 넉넉하게 50기가로 줬는데, 제 설치 가이드로 설치한 게 아니신가 보네요?

Vagrantfile을 다운 받아 보시면 Disk 증설 관련 내용이 있습니다.

https://raw.githubusercontent.com/k8s-1pro/install/main/ground/k8s-1.27/vagrant-2.3.4/Vagrantfile
yuki님의 프로필

yuki

질문자

2024.03.19

$ df -h
Filesystem           Size  Used Avail Use% Mounted on
devtmpfs             4.8G     0  4.8G   0% /dev
tmpfs                4.8G     0  4.8G   0% /dev/shm
tmpfs                4.8G  122M  4.7G   3% /run
tmpfs                4.8G     0  4.8G   0% /sys/fs/cgroup
/dev/mapper/cs-root   13G   10G  2.9G  78% /
/dev/sda2           1014M  299M  716M  30% /boot
/dev/sda1            599M  7.3M  592M   2% /boot/efi
tmpfs                972M   24K  972M   1% /run/user/1000
/dev/sr0             1.1G  1.1G     0 100% /run/media/{user_id}/CentOS-Stream-8-BaseOS-x86_64


imageVagrant를 사용하지 않고, esxi 내 centos를 이용해서 설치했습니다!

위에 명시해두긴 했는데,

esxi, centos8 3cpu 10GB memory 100GB disk 입니다!

Kubeadm으로 따로 디스크나 메모리 관련해서 할당받는 절차가 필요할까요?

VM 생성은 100GB로 만들었으나, 파티션 분할이 제대로 안된 것 같아 보여요.

루트(/) 공간에 디스크를 많이 할 당해 주시기 바랍니다.

image

yuki님의 프로필

yuki

질문자

2024.03.19

바쁘실텐데도 이렇게 빠른 답변 주셔서 감사드려요 :)