묻고 답해요
141만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결Jenkins를 이용한 CI/CD Pipeline 구축
강의에 사용하시는 문서 받을 수 있을까요?
안녕하세요.강의에 사용하시는 PPT 자료 받을 수 있을지 문의 드립니다.감사합니다.
-
미해결Jenkins를 이용한 CI/CD Pipeline 구축
ssh 에러
docker run --privileged --name docker-server -itd -p 10022:22 -p 8081:8080 -e container=docker -v /sys/fs/cgroup:/sys/fs/cgroup edowon0623/docker:latest /usr/sbin이렇게 실행하고 ssh root@localhsot - p 10022로 접속을 하려고 하니 Could not resolve hostname localhsot: \276\313\267\301\301\370 \310\243\275\272\306\256\260\241 \276\370\275\300\264\317\264\331.이렇게 에러가 발생합니다.
-
해결됨대세는 쿠버네티스 [초급~중급]
Dashboard에서 pod 생성시 에러가 발생합니다. 스샷 첨부 드립니다.
실습 진행이 안되는데 더 확인해봐야 할 게 있을까요?
-
미해결대세는 쿠버네티스 [초급~중급]
쿠버네티스 Pod 접속 관련 문의 드립니다.
안녕하세요 K8S 통신 관련 문의 드립니다. 현재 kubectl get nodes 명령어를 입력 시 다음과 같이 모든 Node에서 Ready 상태가 정상적으로 뜨지만 해당 내용의 YAML파일을 바탕으로 kubectl apply -f nginx-pod.yaml 명령어를 사용하여 해당 Pod 가 정상적으로 생성,동작됨이 확인됩니다. kubectl describe pods my-nignx-pod 명령어를 사용하여 해당 pod의 IP주소를 확인하였고 curl 20.102.133.4 명령어를 통해 해당 pod로 접속시도를 해보았으나 다음과 같이 응답을 하지 않습니다. 혹시나 싶어 해당 Pod가 있는 VM의 IP 주소인 10.0.0.6 으로 Ping 테스트를 해보았을때는 Ping은 이상없이 잘 동작합니다. 해당 Pod에 대한 접속 방법에대해 말씀해주시면 감사하겠습니다. 감사합니다.
-
미해결데브옵스(DevOps)를 위한 쿠버네티스 마스터
안녕하세요, kubeadm init 에러가 발생합니다.
말씀해주신 내용을 따라하면서 kubeadm init 를 실행한 결과 해당 에러가 발생하면서 init 되지 않습니다. 구글링하다가 도저히 찾지못해서 문의드려봅니다. 확인 감사합니다 ~ [init] Using Kubernetes version: v1.24.2[preflight] Running pre-flight checks [WARNING SystemVerification]: missing optional cgroups: hugetlberror execution phase preflight: [preflight] Some fatal errors occurred: [ERROR CRI]: container runtime is not running: output: time="2022-07-09T17:26:03Z" level=fatal msg="unable to determine runtime API version: rpc error: code = Unavailable desc = connection error: desc = \"transport: Error while dialing dial unix /var/run/containerd/containerd.sock: connect: no such file or directory\"" 환경: GCS VM instance, Debian GNU/Linux 10
-
미해결대세는 쿠버네티스 [Helm편]
k8s 의 모니터링은 무엇으로 하는게 좋을까요?
helm과는 좀 벗어나는 얘기지만 그래도 딱히 해결할 곳이 없어서 문의합니다. 모니터링이라고 하면 시스템이 죽고 살고, 자원을 얼마나 쓰고 얼마나 남았고 를 봐야 할거 같은데요. 전통적인 서버-application 인 시스템은 서버의 자원을 모니터링하고, application이 죽었나 살았나 확인하고. 이렇게 되어 있습니다. 근데 여기서 k8s라는 한 layer가 더 들어오다 보니 도통 어디를 봐야 할지가 혼동이 옵니다. 시스템 자원만 보기에는, k8s에서 할당한 자원, 즉 pods 내부를 모니터링 해야 하는건지 그 방법이 있는건지, 거기에 더해 pod이 죽고 살고 deployment가 몇개가 문제가 발생 했고 등 이런것들을 속시원히 모니터링 할 수 있는 툴이 좀 있을까요? 다양한 노드, 호스트들의 자원, 서비스 현황, pods상태 등을 하나의 대시보드로 보고 싶습니다....
-
미해결대세는 쿠버네티스 [초급~중급]
vagrant up 오류
설치중에 아래의 메세지에서 계속해서 멈춰있는 상황입니다. 어떤 문제가 있을지 궁금합니다. 해당 url의 download는 정상적으로 보여집니다. 확인 부탁드립니다 -C:\Users\myoun\k8s>vagrant up Bringing machine 'k8s-master' up with 'virtualbox' provider... Bringing machine 'k8s-node1' up with 'virtualbox' provider... Bringing machine 'k8s-node2' up with 'virtualbox' provider... ==> k8s-master: Box 'centos/7' could not be found. Attempting to find and install... k8s-master: Box Provider: virtualbox k8s-master: Box Version: >= 0 ==> k8s-master: Loading metadata for box 'centos/7' k8s-master: URL: https://vagrantcloud.com/centos/7 ==> k8s-master: Adding box 'centos/7' (v2004.01) for provider: virtualbox k8s-master: Downloading: https://vagrantcloud.com/centos/boxes/7/versions/2004.01/providers/virtualbox.box ==> k8s-master: Box download is resuming from prior download progress
-
미해결데브옵스(DevOps)를 위한 쿠버네티스 마스터
pv와 pvc에 대한 궁금증을 질문드립니다. :)
1. spec.capacity.storage 와 spec.accessModes가 동일할시에 자동으로 연결 시켜준다고 강의에서 확인하였습니다. 그런데 제가 본 다른 글중에서 labelSelect 로 선택하는 경우도 있고, stoarage의 양이 pv가 pvc보다 더 높은경우도 보았습니다. ``` apiVersion: v1 kind: PersistentVolumeClaim metadata: name: myclaim spec: accessModes: - ReadWriteOnce volumeMode: Filesystem resources: requests: storage: 8Gi storageClassName: slow selector: matchLabels: release: "stable" matchExpressions: - {key: environment, operator: In, values: [dev]} ``` pv와 pvc가 연결되는 경우가 사실 여러가지가 있는건가요? 2. 아마 storageClass를 사용하지 않을때는, pvc에서 spec.storageClassName을 ""로 명시하는 경우가 있는것같습니다. 그 경우는 ""로 명시하지 않을경우, 기본 스토리지 클래스가 잡혀서 PV가 없어도 자동으로 생성이 되어서 그런걸까요? 3. 기본 스토리지 클래스는, 제가 설정한적도 만든적도 없는데, 언제 어떤것이 만들어 진건가요? 4. 그리고 storageClass를 사용하지 않는 경우에도, Pv와 pvc에 storageClass를 명시하는 경우도 보았는데, 이 경우는 어떤 경우일까요? 항상 강의 잘보고 있습니다. 감사합니다. :)
-
미해결
k8s 컨테이너의 timezone
인프런에서 쿠버네티스 초~중급 강좌를 들으면서 실습중인데 궁금한 점이 해결이 안되어 질문 남깁니다. 쿠버네티스에서 파드를 생성하면 컨테이너의 TZ는 쿠버네티스 마스터나 워커노드를 따라가지 않고 모두 utc로 잡히더라구요. 그래서 검색을 해보니 deployment 를 작성할 때 컨테이너의 TZ를 바꾸는 정도만 나오네요. 도커를 사용할때도 env로 TZ을 KST로 넣어서 시간을 맞췄던 기억이 있는데, 쿠버네티스에서 생성한 컨테이너들이 마스터 노드 혹은 워커노드의 TZ를 따라가도록 하는 설정은 없는 것일까요?? 실무에서 k8s 를 사용하게된다면 시간 정보가 중요할텐데 그냥 UTC로 사용하는 것인지 궁금합니다. 컨테이너의 시간 맞추는 설정으로 사용한다면... 사이드카 컨테이너는 어떻게 설정하는지도 궁금합니다.
-
미해결
조훈 님의 책 컨테이너를 다루는 표준 아키텍처. 쿠버네티스 로 실습중입니다.
안녕하세요 고수님들 현재 쿠버네티스 공부를 하고있는데 막히는 부분이 있어서 고수 선배님들의 도움을 받고자 질문올립니다. 현재 조훈님의 책으로 google gcp에 vm 3대를 (마스터1대, 워커2대)로 학습환경을 만들어 진행중입니다. 잘 공부중인데 막히는 부분이 ingress-nginx 컨트롤러 서비스를 구성하는데 잘 안되어 질문올려봅니다. 현상 root@k8s-m:/home/rsa-key-20220321# kubectl apply -f /home/rsa-key-20220321/_Book_k8sInfra/ch3/3.3.2/ingress-nginx.yaml namespace/ingress-nginx created configmap/nginx-configuration created configmap/tcp-services created configmap/udp-services created serviceaccount/nginx-ingress-serviceaccount created deployment.apps/nginx-ingress-controller created limitrange/ingress-nginx created unable to recognize "/home/rsa-key-20220321/_Book_k8sInfra/ch3/3.3.2/ingress-nginx.yaml": no matches for kind "ClusterRole" in version "rbac.authorization.k8s.io/v1beta1" unable to recognize "/home/rsa-key-20220321/_Book_k8sInfra/ch3/3.3.2/ingress-nginx.yaml": no matches for kind "Role" in version "rbac.authorization.k8s.io/v1beta1" unable to recognize "/home/rsa-key-20220321/_Book_k8sInfra/ch3/3.3.2/ingress-nginx.yaml": no matches for kind "RoleBinding" in version "rbac.authorization.k8s.io/v1beta1" unable to recognize "/home/rsa-key-20220321/_Book_k8sInfra/ch3/3.3.2/ingress-nginx.yaml": no matches for kind "ClusterRoleBinding" in version "rbac.authorization.k8s.io/v1beta1" root@k8s-m:/home/rsa-key-20220321# kubectl get pods -n ingress-nginx NAME READY STATUS RESTARTS AGE nginx-ingress-controller-668959df88-8hmt6 0/1 CrashLoopBackOff 35 (6s ago) 101m root@k8s-m:/home/rsa-key-20220321# kubectl get pod -n ingress-nginx NAME READY STATUS RESTARTS AGE nginx-ingress-controller-668959df88-8hmt6 0/1 CrashLoopBackOff 35 (25s ago) 101m root@k8s-m:/home/rsa-key-20220321# kubectl describe pod nginx-ingress-controller-668959df88-8hmt6 -n ingress-nginx Name: nginx-ingress-controller-668959df88-8hmt6 Namespace: ingress-nginx Priority: 0 Node: k8s-w3/10.178.0.5 Start Time: Wed, 30 Mar 2022 06:07:05 +0000 Labels: app.kubernetes.io/name=ingress-nginx app.kubernetes.io/part-of=ingress-nginx pod-template-hash=668959df88 Annotations: cni.projectcalico.org/containerID: fab04986c5e06c07191e376ab04b5ebc7c66ba3a92e4ee393c6dfa01bedbb38d cni.projectcalico.org/podIP: 10.233.84.34/32 cni.projectcalico.org/podIPs: 10.233.84.34/32 kubernetes.io/limit-ranger: LimitRanger plugin set: cpu, memory request for container nginx-ingress-controller prometheus.io/port: 10254 prometheus.io/scrape: true Status: Running IP: 10.233.84.34 IPs: IP: 10.233.84.34 Controlled By: ReplicaSet/nginx-ingress-controller-668959df88 Containers: nginx-ingress-controller: Container ID: containerd://208fdba282a51fc6b5f3b5e2fbb0e660e0f99622547e1ce8ee63fe834b5e7571 Image: quay.io/kubernetes-ingress-controller/nginx-ingress-controller:0.30.0 Image ID: quay.io/kubernetes-ingress-controller/nginx-ingress-controller@sha256:b312c91d0de688a21075078982b5e3a48b13b46eda4df743317d3059fc3ca0d9 Ports: 80/TCP, 443/TCP Host Ports: 0/TCP, 0/TCP Args: /nginx-ingress-controller --configmap=$(POD_NAMESPACE)/nginx-configuration --tcp-services-configmap=$(POD_NAMESPACE)/tcp-services --udp-services-configmap=$(POD_NAMESPACE)/udp-services --publish-service=$(POD_NAMESPACE)/ingress-nginx --annotations-prefix=nginx.ingress.kubernetes.io State: Waiting Reason: CrashLoopBackOff Last State: Terminated Reason: Error Exit Code: 1 Started: Wed, 30 Mar 2022 07:47:25 +0000 Finished: Wed, 30 Mar 2022 07:48:05 +0000 Ready: False Restart Count: 35 Requests: cpu: 100m memory: 90Mi Liveness: http-get http://:10254/healthz delay=10s timeout=10s period=10s #success=1 #failure=3 Readiness: http-get http://:10254/healthz delay=0s timeout=10s period=10s #success=1 #failure=3 Environment: POD_NAME: nginx-ingress-controller-668959df88-8hmt6 (v1:metadata.name) POD_NAMESPACE: ingress-nginx (v1:metadata.namespace) Mounts: /var/run/secrets/kubernetes.io/serviceaccount from kube-api-access-6f8wg (ro) Conditions: Type Status Initialized True Ready False ContainersReady False PodScheduled True Volumes: kube-api-access-6f8wg: Type: Projected (a volume that contains injected data from multiple sources) TokenExpirationSeconds: 3607 ConfigMapName: kube-root-ca.crt ConfigMapOptional: <nil> DownwardAPI: true QoS Class: Burstable Node-Selectors: kubernetes.io/os=linux Tolerations: node.kubernetes.io/not-ready:NoExecute op=Exists for 300s node.kubernetes.io/unreachable:NoExecute op=Exists for 300s Events: Type Reason Age From Message ---- ------ ---- ---- ------- Normal Started 46m (x22 over 101m) kubelet Started container nginx-ingress-controller Warning DNSConfigForming 6m34s (x459 over 101m) kubelet Search Line limits were exceeded, some search paths have been omitted, the applied search line is: ingress-nginx.svc.cluster.local svc.cluster.local cluster.local default.svc.cluster.local asia-northeast3-a.c.master-plane-344801.internal c.master-plane-344801.internal Warning Unhealthy 92s (x247 over 101m) kubelet Readiness probe failed: HTTP probe failed with statuscode: 500 root@k8s-m:/home/rsa-key-20220321# kubectl apply -f /home/rsa-key-20220321/_Book_k8sInfra/ch3/3.3.2/ingress-config.yaml error: error validating "/home/rsa-key-20220321/_Book_k8sInfra/ch3/3.3.2/ingress-config.yaml": error validating data: [ValidationError(Ingress.spec.rules[0].http.paths[0].backend.service.port): invalid type for io.k8s.api.networking.v1.ServiceBackendPort: got "string", expected "map", ValidationError(Ingress.spec.rules[0].http.paths[1].backend.service.port): invalid type for io.k8s.api.networking.v1.ServiceBackendPort: got "string", expected "map", ValidationError(Ingress.spec.rules[0].http.paths[2].backend.service.port): invalid type for io.k8s.api.networking.v1.ServiceBackendPort: got "integer", expected "map"]; if you choose to ignore these errors, turn validation off with --validate=false ㅠㅠ 초보이다 보니 너무 힘들어서 도움 부탁드립니다. 미리 감사드립니다.
-
미해결대세는 쿠버네티스 [초급~중급]
물리서버 자체에 쿠버네티스 설치 관련 문의 드립니다.
안녕하세요, 강사님. 수업 잘 듣고 있습니다. 제가 남는 sever 한 대 자체를 리눅스 서버로(centos7) 구성하는 중에 있습니다. (강사님 강의자료 설치 Case 1) [1] ip 관련 질문 제 server은 lan선으로 연결되며, 128 대역을 사용하고 있습니다. (할당 해줄 IP(해당 대역 내 사용할 ip)는 128. 134.233.250 입니다.) 그렇다면 VM 설치 시 해당 부분을 128.134.233.250, 128.134.233.1 로 바꿔주고 1. Test this media & install CentOS 7 2. Language : 한국어 3. Disk 설정 [시스템 > 설치 대상] - [기타 저장소 옵션 > 파티션 설정] 파티션을 설정합니다. [체크] 후 [완료] - 기존에 파티션이 설정되어 있으면 하나씩 선택해서 [-] 버튼으로 삭제 - 새로운 CentOS 설치 > 여기를 클릭하여 자동으로 생성합니다. [클릭] - /home [클릭] 후 용량 30 GiB로 변경 [설정 업데이트 클릭] - / [클릭] 후 /home에서 뺀 GiB 만큼 추가해서 GiB 수정 후 [설정 업데이트 클릭] - [완료], [변경 사항 적용] 4. 네트워크 설정 [시스템 > 네트워크 및 호스트명 설정] - 호스트 이름: physical-host [적용] - 이더넷 [켬], [설정], [IPv4 설정] 탭 - 방식: 수동으로 선택, - [Add] -> 주소: 128.134.233.250, 넷마스크 : 255.255.255.0, 게이트웨이: 128.134.233.1, DNS 서버 : 8.8.8.8 [저장][완료] 5. 설치시작 6. [설정 > 사용자 설정] ROOT 암호 설정 7. 설치 완료 후 [재부팅] (재부팅 시에는 USB 빼는거 잊지 마세요) VM 설치 시에도 1. Test this media & install CentOS 7 2. Language : 한국어 3. Disk 설정 [시스템 > 설치 대상] - [기타 저장소 옵션 > 파티션 설정] 파티션을 설정합니다. [체크] 후 [완료] - 새로운 CentOS 설치 > 여기를 클릭하여 자동으로 생성합니다. [클릭] - /home [클릭] 후 용량 5.12 GiB로 변경 [설정 업데이트 클릭] - / [클릭] 후 140 GiB 변경 후 [설정 업데이트 클릭] - [완료], [변경 사항 적용] 4. 네트워크 설정 [시스템 > 네트워크 및 호스트명 설정] - 호스트 이름: k8s-master [적용] - 이더넷 [켬], [설정], [IPv4 설정] 탭 - 방식: 수동으로 선택, - [Add] -> 주소: 128.134.233.x, 넷마스크 : 255.255.255.0, 게이트웨이: 128.134.233.1, DNS 서버 : 8.8.8.8 [저장][완료]5. 설치시작 6. [설정 > 사용자 설정] ROOT 암호 설정 7. 설치 완료 후 [재부팅] 로 바꾸면 될까요..? 아니면 vm은 상관 없을까요? 만약 해당 대역(128.134.233.x)로 할당 받는다면, it팀 쪽에 문의를 넣어야 하는 상황이라 여쭤봅니다. [2] centOS 설치 관련 질문 (+ 설치 과정 상에서 black screen 오류가 계속 나오고 있습니다. 이건 더 구글링 해 볼게요!) 설치 시 이더넷 연결 버튼이 잡히지(뜨지) 않습니다. 혹시 제가 브리지 모드를 추가한 다음 ipv4 설정 탭에 가서 주소, 넷마스크, 게이트웨이, dns를 입력해도 될까요?
-
미해결초보를 위한 쿠버네티스 안내서
service 강의에서 LB접속, nodeport 질문 있습니다.
1. LB접속 버네티스 환경 : aws > lightSail 내에 k3s 설치 counter-lb 서비스 추가 후 External-ip 생성을 확인, 해당 External-ip와 ports를 조합해 lightSail 외부에서 접속 -> 접속 안 됨 어째서 접속이 안 되는 것일까요?? aws 환경에서 해당 External-ip를 저에게 할당해주지 않아서 그런 것인가요? 2. nodeport 생성돼 있던 nodeport에 load balancer를 연결하는 것인데, LB 설정 파일에선 targetPort가 nodeport의 포트 번호인 31000이 아니라 counter pod의 포트인 3000을 가리키는데요, 그 이유를 알고 싶습니다.
-
해결됨대세는 쿠버네티스 [초급~중급]
Dashboard에서 pod를 생성하는데 아래와 같은 에러가 나고 있습니다
안녕하세요. Dashboard에서 pod를 생성하는데 아래와 같은 에러가 나고 있습니다. 글 중에 https://www.inflearn.com/questions/305007 를 찾아서 그대로 했는데도 역시 동일한 에러가 나는 군요. 참고로 저는 Ubuntu 환경입니다. 그리고, kubetm/p8000아닌가요? Docker hub에 그렇게 보이더군요. --아래-- Deploying file has failed the server does not allow this method on the requested resource
-
미해결쉽게 시작하는 쿠버네티스(v1.30) - {{ x86-64, arm64 }}
super putty 실행 시 커넥션 에러
super putty 설치하고 파일 받아와서 m-k8s 실행하면 커넥션 에러가 뜨는데 왜 그런 걸까요? - 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 실습이 안되는 경우 안되는 부분과 함께 관련 상황을 파악할 수 있는 화면 및 수행 내용등을 함께 주시면 답변에 도움이 됩니다. * 중요 * Vagrant와 관련한 질문은 자주 묻는 질문을 통해서도 해결이 어려운 경우에는 도움을 드리기가 매우 어렵습니다. 자주 묻는 질문에도 기입해두었지만, 개개인의 환경에 따른 차이로 생기는 문제들이기 때문에 개인의 환경을 제가 모두 파악할 수가 없습니다. 오프라인 강의라면 이 부분이 가능하지만 온라인 강의의 한계로 인한 부분이기 때문에 진행자체가 매우 어려워서 강의에 가치를 느끼지 못하신다면, 인프런 환불 요건(진도율 7%, 구매 1주일 이내)에 따라 환불을 도와주실 것이니 인프런에 문의해 주세요. 이 부분에 대해서 이해를 부탁드립니다. << 참고 >> 호스트 성능과의 연관성 똑같은 코드, WIFI 등 같은 환경에서도 'vagrant up'을 실행해도 아래와 같이 다른 결과가 나옵니다. >> Mac에서는 문제 없이 동작 (한번도 문제된 적 없음)>> 윈도우에서는 timeout 등 여러 가지 오류가 발생- 질문에 상당한 노력 및 고민이 담겨지지 않은 경우 답변하기 매우 어렵습니다. 어려웠던 점을 담아서 질문 부탁드립니다. - 질문 답변은 1-2주에 한 번 진행하고 있습니다. 현업의 업무로 바로 답변하는 것이 매우 어려운 점 너른 이해를 부탁드립니다. * 참고 * 강의에서 다루지 않는 쿠버네티스 범위를 넘는 질문은 쿠버네티스 오픈 채팅 및 유저 그룹을 이용하는게 도움이 될 수 있습니다. (https://open.kakao.com/o/gxSooElb {암호: kubectl}- 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요.
-
미해결대세는 쿠버네티스 [초급~중급]
LB 관련 질문
안녕하세요. 다른 질문에서LB 요청시 LB > NodePort > iptables 라고 되어있는데 물론 CNI 마다 다르겠지만 예를들어 제가 azure 를사용하고있고 azure 에 Public IP 를 External IP 로할당한 LB 서비스를만들었습니다. 이때의 정보가 아래와같더라구요.External IPs : Azure IP ClusterIP : 23.47.151.147Ports : 80:30048/TCPEndpointsPod IP 10.111.119.47Pod Port: 3000라고되어있는데, 저위에 Cluster IP 는 Node 의 IP 인지 Service IP 인지가 궁금합니다. 만약 Node 의 IP 라고한다면AzureIP:80 > 23.47.151.147:30048(NodePort) > Iptables 를통해 Endpoint 의 10.111.119.47:3000 으로 요청하게 되는것인가요??
-
해결됨대세는 쿠버네티스 [초급~중급]
pod 생성과정에 대한 질문
안녕하세요. 강의 너무 잘 듣고있습니다. 강의내용 복습중 이해가 부족한 부분에 대해 질문 올립니다. pod생성 과정이 아래 처럼 생성이 된다는 걸로 이해를 했습니다. 1. client가 kubectl를 이용해 pod 생성 요청 2. api server가 request 받음 3. etcd에 pod 정보 저장 4. scheduler가 api server를 watch하고 있음으로 pod 생성 요청이 들어오면 api server가 watch하고 있는 scheduler에게 통지 5. schduler가 최적의 노드를 판별해 api server를 통해 etcd에 정보 업데이트 6. 각 노드의 kubelet이 api server를 watch하고 있음으로 pod의 노드정보 업데이트 되면 apiserver가 kubelet에게 통지 7. kubelet은 container runtime인 docker에게 컨테이너 생성 요청 .... 그런데 여기서 궁금한점은 pod lifecycle 강의에서 pod status에 대해서는 pod가 생성될때 Initialized 실행을 하고나서 PodScheduled 된다고 설명해주셨는데 해당 강좌에서는 PodScheduled 된 후에 container가 생성이 되는것 같아 질문 올립니다. 순서가 어떻게 되는지 설명 해주시면 감사하겠습니다!
-
미해결쉽게 시작하는 쿠버네티스(v1.30) - {{ x86-64, arm64 }}
vagrant up 에러
The IP address configured for the host-only network is not within the allowed ranges. Please update the address used to be within the allowed ranges and run the command again. Address: 192.168.1.10 Ranges: 192.168.56.0/21 Valid ranges can be modified in the /etc/vbox/networks.conf file. For more information including valid format see: https://www.virtualbox.org/manual/ch06.html#network_hostonly --------------------------------------------------------------- vagrant up 명령어 실행 시 위와 같은 에러가 발생합니다. 혹시 networks.conf file파일을 생성해주면 되는건가요?. 저 위치에 해당하는 vbox 폴더가 없는데, 어떤 이유로 찾는건지도 궁금합니다. 감사합니다.
-
미해결그림으로 배우는 쿠버네티스(v1.30) - {{ x86-64, arm64 }}
kubesystem에서 컨트롤러 부분이 crashloopbackoff관련 질문
안녕하세요 강사님 강의 열심히 시청중인 수강생입니다 kube-system쪽에서 kube-controller-manager-m-k8s, kube-scheduler-m-k8s 이 두 부분이 crashloopbackoff가 나서 질문드립니다. 중간 중간에 계속 접속이 멈춰서 강의 따라가고 싶은데 멈춰서 스트레스 받네요 ㅠㅠ 어떤 문제인지 꼭 알고 싶습니다
-
해결됨대세는 쿠버네티스 [초급~중급]
LB에서 Pod까지의 Flow 관련 질문
안녕하세요 질문이 있어 글 올립니다. LB를 생성 후 외부 IP를 부여 받은 상황에서 client가 LB의 외부IP:80으로 요청을 하면 traffic flow가 LB:80 > NodeIP:NodePort > Iptables > DNAT > Pod 로 도착하는게 맞나요? (kube-proxy 모드는 iptables 라고 가정했을시) 아니면 CNI PlugIN에 따라서 이 부분도 달라지나요? GKE에서 확인했을떄 GCP에서 제공하는 Firewall에서는 NodePort관련해서 Open되어있지 않은상황이며 (open되어있지 않아도 pod까지 연결이 잘되는 상황입니다.) LB:80 > NodeIP:80 > Iptables > DNAT > Pod 이러한 흐름으로 pod까지 연결되는것 같은데 (방화벽은 기본 all deny인 상태입니다. ) 이런식으로도 흘러갈 수 있는지가 궁금합니다!
-
미해결데브옵스(DevOps)를 위한 쿠버네티스 마스터
Ingress와 reverse proxy의 차이
nginx를 사용한 인그레스를 학습하던 도중 비슷하게 url에 따라 보낼 서비스를 변경하는 리버스 프록시에 대해 알게 되었습니다. 해당 부분의 차이를 알기 위해 다른 자료를 찾아보았으나 명확히 와닿는 설명이 없었습니다. 목적이나 용도가 굉장히 유사해보이는 두 개의 기술이 어떤 점에서 차이가 있는지나 또는 각각 어떠한 장단점을 지녔는지 알려주시면 감사하겠습니다!