인프런 커뮤니티 질문&답변

yuki님의 프로필 이미지
yuki

작성한 질문수

쿠버네티스 어나더 클래스 (지상편) - Sprint 1, 2

💻 실습하기

tigera-operator 관련 질문 (eviction loop)

작성

·

255

·

수정됨

1

  • 실습에 문제 발생 시 최대한 캡쳐 화면을 꼭 올려 주세요. (원인 파악에 도움이 큽니다)

  • 영상 내용 질문 시 해당 영상 제목과 내용이 있는 시간을 같이 올려주세요. (내용을 다시 들어보고 답변을 드리기 위해서 입니다)

  • 긴 로그는 제 메일로 보내주세요. (k8s.1pro@gmail.com)

  • 카페 [강의 자료실]에도 많은 질문과 답변들이 있어요!

cafe: https://cafe.naver.com/kubeops

kubenetes cluster를 설치하고 있습니다
강사님께서 알려주신 아래 파일과 동일하게 설치하고 있습니다. (master ip만 제 서버에 맞게 설치했습니다)

cat << EOF >> /etc/hosts
192.168.56.30 k8s-master --> 제 ip
EOF

https://raw.githubusercontent.com/k8s-1pro/install/main/ground/k8s-1.27/vagrant-2.3.4/Vagrantfile

esxi, centos8 3cpu 10GB memory 100GB의 서버에 설치해 수업을 수강 중인 학생입니다.

/tigera-operator        tigera-operator-84cf9b6dbb-qnvz9             1/1     Running   0          3m

tigera-operator가 문제가 있습니다

가끔 tigera-operator eviction loop 처럼 무한정 pod가 생겨서, 서버 자원을 채워서 메모리와 디스크 부족으로 pod이 생기지 않는데요

아래와 유사하지만 저의 경우
https://github.com/projectcalico/calico/issues/8110

위 tigera-operator가 pod가 무한정 생겼습니다


혹시 이런 경우, 어떻게 대처할 수 있을까요?

이런 문제가 있을 때마다, 그냥 재설치를 하곤 하는데, 정답은 아닌 것 같아 질문드립니다.

아직 쿠버네티스를 잘 몰라서, 이런 문제는 어떻게 대처해야할지 검색해도 잘 모르겠습니다

답변 2

1

yuki님의 프로필 이미지
yuki
질문자

imageimageloki grafana prometheus를 설치한 후, tigera-operator가 바로 이런 식으로 늘어나게 됩니다...!
직접적인 원인이 loki grafana prometheus인지는 모르겠으나, k8s cluster를 설치한 후, 위 모니터링을 이어서 설치하고 나서, "위와 같이 계속 증식하는 상황을 발견했습니다.

0

일프로님의 프로필 이미지
일프로
지식공유자

안녕하세요.

Disk 10기가는 부족합니다. 이건 Vagrant로 Virtualbox에 VM 생성시 기본 디스크 사이즈고요.

모니터링 설치하고 나면 여유 디스크가 별로 없게 되요.

그래서 저도 그런 현상이 많았습니다.

그리고 제 설치 가이드에는 Disk를 넉넉하게 50기가로 줬는데, 제 설치 가이드로 설치한 게 아니신가 보네요?

Vagrantfile을 다운 받아 보시면 Disk 증설 관련 내용이 있습니다.

https://raw.githubusercontent.com/k8s-1pro/install/main/ground/k8s-1.27/vagrant-2.3.4/Vagrantfile
yuki님의 프로필 이미지
yuki
질문자

$ df -h
Filesystem           Size  Used Avail Use% Mounted on
devtmpfs             4.8G     0  4.8G   0% /dev
tmpfs                4.8G     0  4.8G   0% /dev/shm
tmpfs                4.8G  122M  4.7G   3% /run
tmpfs                4.8G     0  4.8G   0% /sys/fs/cgroup
/dev/mapper/cs-root   13G   10G  2.9G  78% /
/dev/sda2           1014M  299M  716M  30% /boot
/dev/sda1            599M  7.3M  592M   2% /boot/efi
tmpfs                972M   24K  972M   1% /run/user/1000
/dev/sr0             1.1G  1.1G     0 100% /run/media/{user_id}/CentOS-Stream-8-BaseOS-x86_64


imageVagrant를 사용하지 않고, esxi 내 centos를 이용해서 설치했습니다!

위에 명시해두긴 했는데,

esxi, centos8 3cpu 10GB memory 100GB disk 입니다!

Kubeadm으로 따로 디스크나 메모리 관련해서 할당받는 절차가 필요할까요?

일프로님의 프로필 이미지
일프로
지식공유자

VM 생성은 100GB로 만들었으나, 파티션 분할이 제대로 안된 것 같아 보여요.

루트(/) 공간에 디스크를 많이 할 당해 주시기 바랍니다.

image

yuki님의 프로필 이미지
yuki
질문자

바쁘실텐데도 이렇게 빠른 답변 주셔서 감사드려요 :)

yuki님의 프로필 이미지
yuki

작성한 질문수

질문하기