묻고 답해요
141만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결
vagrant up 에러
vagrant up을 실행하면 vmware 실행을 실패했다고 나오는데 vmnet7만 빼고 실행이 되는데 어떻게 해야하나요..?(base) bomi@bomiui-MacBookPro k8s % vagrant upBringing machine 'cp-k8s-1.30.0' up with 'vmware_desktop' provider...Bringing machine 'w1-k8s-1.30.0' up with 'vmware_desktop' provider...Bringing machine 'w2-k8s-1.30.0' up with 'vmware_desktop' provider...Bringing machine 'w3-k8s-1.30.0' up with 'vmware_desktop' provider...==> cp-k8s-1.30.0: Checking if box 'sysnet4admin/Ubuntu-k8s' version '0.8.6' is up to date...==> cp-k8s-1.30.0: Verifying vmnet devices are healthy...The VMware "vmnet" devices are failing to start. The most commonreason for this is collisions with existing network services. Forexample, if a hostonly network space collides with another hostonlynetwork (such as with VirtualBox), it will fail to start. Likewise,if forwarded ports collide with other listening ports, it willfail to start. Vagrant does its best to fix these issues, but in some cases itcannot determine the root cause of these failures. Please verify you have no other colliding network services running.As a last resort, restarting your computer often fixes this issue.
-
미해결
쿠버네티스 클러스터 구성
안녕하세요, 선생님들.. 입사한지 막 1년이 된 어른이 입니다... 지금 최대 난관에 봉착 되어 있습니다.사내 망 베어메탈 환경에 구축된 쿠버네티스 클러스터에, 사외 망에 있는 VM 10대를 워커 노드로 추가하려고 합니다. 문제가 VM 특성 상 NAT IP 1개에 SSH 접속 포트는 10개로 (1xx01~1xx10) 구별하고 있고, 모든 포트도 오픈 할 수 없는 상황입니다. 이런 조건에서 VM을 워커노드로 추가가 가능한 것인지..., 가능하다면 좋은 방법이 있으신지 질문 드려봅니다. 노드 추가는 Kubespray로 하고 있고, CNI는 calico 환경입니다.추가로, VM에 배포한 Calico Pod의 에러로그를 보니 10.233.0.1 (사내 망의 Master Node의 default service 주소)를 못 찾고 있었습니다. VM Calico Pod -> Master Node k8s default service -> Master Node api server 순으로 찌르는 것 같았습니다. 더불어, VM에서는 curl -k "https://121.134.39.25(master node nat ip):6443/api" 할 때 응답이 오긴 했었습니다.
-
미해결대세는 쿠버네티스 [초급~중급]
쿠버네티스 Pod 접속 관련 문의 드립니다.
안녕하세요 K8S 통신 관련 문의 드립니다. 현재 kubectl get nodes 명령어를 입력 시 다음과 같이 모든 Node에서 Ready 상태가 정상적으로 뜨지만 해당 내용의 YAML파일을 바탕으로 kubectl apply -f nginx-pod.yaml 명령어를 사용하여 해당 Pod 가 정상적으로 생성,동작됨이 확인됩니다. kubectl describe pods my-nignx-pod 명령어를 사용하여 해당 pod의 IP주소를 확인하였고 curl 20.102.133.4 명령어를 통해 해당 pod로 접속시도를 해보았으나 다음과 같이 응답을 하지 않습니다. 혹시나 싶어 해당 Pod가 있는 VM의 IP 주소인 10.0.0.6 으로 Ping 테스트를 해보았을때는 Ping은 이상없이 잘 동작합니다. 해당 Pod에 대한 접속 방법에대해 말씀해주시면 감사하겠습니다. 감사합니다.
-
해결됨대세는 쿠버네티스 [초급~중급]
쿠버네티스 최신 버전 설치(vagrant file)가 완료된 상태에서 노드 개수를 늘릴 수는 없나요?
강사님, 유익한 강의 잘 듣고 있습니다. 혹시 이미 vagrant file로 설치된 상태에서, vm 개수를 늘릴 수 있을까요? vagrant file 코드를 진행중인 상태에서 변경하면 오류가 날까요? 세개의 노드를 더 설치하고 싶어서 여쭙니다! (최신버전_vagrant file로 환경 구축을 완료하고 여러 실습을 진행한 상태입니다.)
-
미해결
조훈 님의 책 컨테이너를 다루는 표준 아키텍처. 쿠버네티스 로 실습중입니다.
안녕하세요 고수님들 현재 쿠버네티스 공부를 하고있는데 막히는 부분이 있어서 고수 선배님들의 도움을 받고자 질문올립니다. 현재 조훈님의 책으로 google gcp에 vm 3대를 (마스터1대, 워커2대)로 학습환경을 만들어 진행중입니다. 잘 공부중인데 막히는 부분이 ingress-nginx 컨트롤러 서비스를 구성하는데 잘 안되어 질문올려봅니다. 현상 root@k8s-m:/home/rsa-key-20220321# kubectl apply -f /home/rsa-key-20220321/_Book_k8sInfra/ch3/3.3.2/ingress-nginx.yaml namespace/ingress-nginx created configmap/nginx-configuration created configmap/tcp-services created configmap/udp-services created serviceaccount/nginx-ingress-serviceaccount created deployment.apps/nginx-ingress-controller created limitrange/ingress-nginx created unable to recognize "/home/rsa-key-20220321/_Book_k8sInfra/ch3/3.3.2/ingress-nginx.yaml": no matches for kind "ClusterRole" in version "rbac.authorization.k8s.io/v1beta1" unable to recognize "/home/rsa-key-20220321/_Book_k8sInfra/ch3/3.3.2/ingress-nginx.yaml": no matches for kind "Role" in version "rbac.authorization.k8s.io/v1beta1" unable to recognize "/home/rsa-key-20220321/_Book_k8sInfra/ch3/3.3.2/ingress-nginx.yaml": no matches for kind "RoleBinding" in version "rbac.authorization.k8s.io/v1beta1" unable to recognize "/home/rsa-key-20220321/_Book_k8sInfra/ch3/3.3.2/ingress-nginx.yaml": no matches for kind "ClusterRoleBinding" in version "rbac.authorization.k8s.io/v1beta1" root@k8s-m:/home/rsa-key-20220321# kubectl get pods -n ingress-nginx NAME READY STATUS RESTARTS AGE nginx-ingress-controller-668959df88-8hmt6 0/1 CrashLoopBackOff 35 (6s ago) 101m root@k8s-m:/home/rsa-key-20220321# kubectl get pod -n ingress-nginx NAME READY STATUS RESTARTS AGE nginx-ingress-controller-668959df88-8hmt6 0/1 CrashLoopBackOff 35 (25s ago) 101m root@k8s-m:/home/rsa-key-20220321# kubectl describe pod nginx-ingress-controller-668959df88-8hmt6 -n ingress-nginx Name: nginx-ingress-controller-668959df88-8hmt6 Namespace: ingress-nginx Priority: 0 Node: k8s-w3/10.178.0.5 Start Time: Wed, 30 Mar 2022 06:07:05 +0000 Labels: app.kubernetes.io/name=ingress-nginx app.kubernetes.io/part-of=ingress-nginx pod-template-hash=668959df88 Annotations: cni.projectcalico.org/containerID: fab04986c5e06c07191e376ab04b5ebc7c66ba3a92e4ee393c6dfa01bedbb38d cni.projectcalico.org/podIP: 10.233.84.34/32 cni.projectcalico.org/podIPs: 10.233.84.34/32 kubernetes.io/limit-ranger: LimitRanger plugin set: cpu, memory request for container nginx-ingress-controller prometheus.io/port: 10254 prometheus.io/scrape: true Status: Running IP: 10.233.84.34 IPs: IP: 10.233.84.34 Controlled By: ReplicaSet/nginx-ingress-controller-668959df88 Containers: nginx-ingress-controller: Container ID: containerd://208fdba282a51fc6b5f3b5e2fbb0e660e0f99622547e1ce8ee63fe834b5e7571 Image: quay.io/kubernetes-ingress-controller/nginx-ingress-controller:0.30.0 Image ID: quay.io/kubernetes-ingress-controller/nginx-ingress-controller@sha256:b312c91d0de688a21075078982b5e3a48b13b46eda4df743317d3059fc3ca0d9 Ports: 80/TCP, 443/TCP Host Ports: 0/TCP, 0/TCP Args: /nginx-ingress-controller --configmap=$(POD_NAMESPACE)/nginx-configuration --tcp-services-configmap=$(POD_NAMESPACE)/tcp-services --udp-services-configmap=$(POD_NAMESPACE)/udp-services --publish-service=$(POD_NAMESPACE)/ingress-nginx --annotations-prefix=nginx.ingress.kubernetes.io State: Waiting Reason: CrashLoopBackOff Last State: Terminated Reason: Error Exit Code: 1 Started: Wed, 30 Mar 2022 07:47:25 +0000 Finished: Wed, 30 Mar 2022 07:48:05 +0000 Ready: False Restart Count: 35 Requests: cpu: 100m memory: 90Mi Liveness: http-get http://:10254/healthz delay=10s timeout=10s period=10s #success=1 #failure=3 Readiness: http-get http://:10254/healthz delay=0s timeout=10s period=10s #success=1 #failure=3 Environment: POD_NAME: nginx-ingress-controller-668959df88-8hmt6 (v1:metadata.name) POD_NAMESPACE: ingress-nginx (v1:metadata.namespace) Mounts: /var/run/secrets/kubernetes.io/serviceaccount from kube-api-access-6f8wg (ro) Conditions: Type Status Initialized True Ready False ContainersReady False PodScheduled True Volumes: kube-api-access-6f8wg: Type: Projected (a volume that contains injected data from multiple sources) TokenExpirationSeconds: 3607 ConfigMapName: kube-root-ca.crt ConfigMapOptional: <nil> DownwardAPI: true QoS Class: Burstable Node-Selectors: kubernetes.io/os=linux Tolerations: node.kubernetes.io/not-ready:NoExecute op=Exists for 300s node.kubernetes.io/unreachable:NoExecute op=Exists for 300s Events: Type Reason Age From Message ---- ------ ---- ---- ------- Normal Started 46m (x22 over 101m) kubelet Started container nginx-ingress-controller Warning DNSConfigForming 6m34s (x459 over 101m) kubelet Search Line limits were exceeded, some search paths have been omitted, the applied search line is: ingress-nginx.svc.cluster.local svc.cluster.local cluster.local default.svc.cluster.local asia-northeast3-a.c.master-plane-344801.internal c.master-plane-344801.internal Warning Unhealthy 92s (x247 over 101m) kubelet Readiness probe failed: HTTP probe failed with statuscode: 500 root@k8s-m:/home/rsa-key-20220321# kubectl apply -f /home/rsa-key-20220321/_Book_k8sInfra/ch3/3.3.2/ingress-config.yaml error: error validating "/home/rsa-key-20220321/_Book_k8sInfra/ch3/3.3.2/ingress-config.yaml": error validating data: [ValidationError(Ingress.spec.rules[0].http.paths[0].backend.service.port): invalid type for io.k8s.api.networking.v1.ServiceBackendPort: got "string", expected "map", ValidationError(Ingress.spec.rules[0].http.paths[1].backend.service.port): invalid type for io.k8s.api.networking.v1.ServiceBackendPort: got "string", expected "map", ValidationError(Ingress.spec.rules[0].http.paths[2].backend.service.port): invalid type for io.k8s.api.networking.v1.ServiceBackendPort: got "integer", expected "map"]; if you choose to ignore these errors, turn validation off with --validate=false ㅠㅠ 초보이다 보니 너무 힘들어서 도움 부탁드립니다. 미리 감사드립니다.
-
미해결
cmd에서 vagrant와 vagrant init 실행이 안됩니다.
안녕하세요 vagrant 파일 다운을받았고, 버전 확인은 되지만 명령어 확인하는 vagrant와 vagrant init 명령을 cmd에서 사용하면 밑의 에러가 뜹니다.. 환경변수에 추가도 해놨는데도 안되서 이유를 모르겠습니다ㅠㅠ
-
미해결대세는 쿠버네티스 [초급~중급]
쿠버네티스 설치용 vagrant file
안녕하세요, 강사님! 수업 잘 듣고 있습니다. 블로그에 올려주신 '쿠버네티스 설치_최신버전'에 있는 vagrant file에 관한 질문인데요. Node 개수를 늘리고 싶다면 (예: 4개) 상단에 있는 NodeCnt를 4로 바꾸기만 하면 될까요? (NodeCnt = 2 -> NodeCnt = 4) -------아래 코드를 입력하면 될까요?------------------------------------------------------------------------ NodeCnt = 4 Vagrant.configure("2") do |config| # config.vbguest.installer_options = { allow_kernel_upgrade: true } config.vm.box = "centos/7" config.vm.provider :virtualbox do |vb| vb.memory = 3072 vb.cpus = 4 end config.vm.provision :shell, privileged: true, inline: $install_common_tools config.vm.define "k8s-master" do |master| master.vm.hostname = "k8s-master" master.vm.network "private_network", ip: "192.168.56.30" master.vm.provision :shell, privileged: true, inline: $provision_master_node end (1..NodeCnt).each do |i| config.vm.define "k8s-node#{i}" do |node| node.vm.hostname = "k8s-node#{i}" node.vm.network "private_network", ip: "192.168.56.#{i + 30}" end end end $install_common_tools = <<-SHELL # ssh password 접속 활성화 sed -i 's/PasswordAuthentication no/PasswordAuthentication yes/g' /etc/ssh/sshd_config sed -i 's/#PermitRootLogin yes/PermitRootLogin yes/g' /etc/ssh/sshd_config; systemctl restart sshd.service # 방화벽 해제 systemctl stop firewalld && systemctl disable firewalld systemctl stop NetworkManager && systemctl disable NetworkManager # Swap 비활성화 swapoff -a && sed -i '/ swap / s/^/#/' /etc/fstab # br_netfilter 모듈 로드 cat <<EOF | tee /etc/modules-load.d/k8s.conf br_netfilter EOF # Iptables 커널 옵션 활성화 cat <<EOF > /etc/sysctl.d/k8s.conf net.bridge.bridge-nf-call-ip6tables = 1 net.bridge.bridge-nf-call-iptables = 1 EOF sysctl --system # permissive 모드로 SELinux 설정(효과적으로 비활성화) setenforce 0 sed -i 's/^SELINUX=enforcing$/SELINUX=permissive/' /etc/selinux/config # 쿠버네티스 YUM Repository 설정 cat <<EOF | tee /etc/yum.repos.d/kubernetes.repo [kubernetes] name=Kubernetes baseurl=https://packages.cloud.google.com/yum/repos/kubernetes-el7-x86_64 enabled=1 gpgcheck=1 repo_gpgcheck=1 gpgkey=https://packages.cloud.google.com/yum/doc/yum-key.gpg https://packages.cloud.google.com/yum/doc/rpm-package-key.gpg exclude=kubelet kubeadm kubectl EOF # Centos Update yum -y update # Hosts 등록 cat << EOF >> /etc/hosts 192.168.56.30 k8s-master 192.168.56.31 k8s-node1 192.168.56.32 k8s-node2 EOF # 도커 설치 yum install -y yum-utils device-mapper-persistent-data lvm2 yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo yum install -y containerd.io-1.4.9-3.1.el7 docker-ce-3:20.10.8-3.el7.x86_64 docker-ce-cli-1:20.10.8-3.el7.x86_64 mkdir /etc/docker cat > /etc/docker/daemon.json <<EOF { "exec-opts": ["native.cgroupdriver=systemd"], "log-driver": "json-file", "log-opts": { "max-size": "100m" }, "storage-driver": "overlay2", "storage-opts": [ "overlay2.override_kernel_check=true" ] } EOF mkdir -p /etc/systemd/system/docker.service.d # 도커 재시작 systemctl daemon-reload systemctl enable --now docker # 쿠버네티스 설치 yum install -y kubelet-1.22.0-0.x86_64 kubeadm-1.22.0-0.x86_64 kubectl-1.22.0-0.x86_64 --disableexcludes=kubernetes systemctl enable --now kubelet SHELL $provision_master_node = <<-SHELL # 쿠버네티스 초기화 명령 실행 kubeadm init --apiserver-advertise-address 192.168.56.30 --pod-network-cidr=20.96.0.0/12 kubeadm token create --print-join-command > ~/join.sh # 환경변수 설정 mkdir -p $HOME/.kube cp -i /etc/kubernetes/admin.conf $HOME/.kube/config chown $(id -u):$(id -g) $HOME/.kube/config # Kubectl 자동완성 기능 설치 yum install bash-completion -y source <(kubectl completion bash) echo "source <(kubectl completion bash)" >> ~/.bashrc # Calico 설치 curl https://docs.projectcalico.org/manifests/calico.yaml -O kubectl apply -f calico.yaml # Dashboard 설치 kubectl apply -f https://kubetm.github.io/yamls/k8s-install/dashboard-2.3.0.yaml nohup kubectl proxy --port=8001 --address=192.168.56.30 --accept-hosts='^*$' >/dev/null 2>&1 & SHELL ------------------------------------------------------------------------------------------------------------
-
미해결초보를 위한 쿠버네티스 안내서
쿠버네티스가 내 현재 상황에 적절한 도구인가에 대한 질문 드립니다!
안녕하세요! 강사님 덕분에 쿠버네티스 입문을 즐겁게 하고 있습니다. 감사합니다! 다름이 아니라 해당 강의 마지막 부분에 쿠버네티스를 도입할만한 서비스 규모인지 적절히 고민해야한다고 하신 부분에 대해 질문이 있습니다. 질문 1. 클라우드 생태계의 플랫폼으로써의 쿠버네티스 강의 초반에 이야기해주신대로 쿠버네티스를 오케스트레이션 툴 자체가 아닌 플랫폼 자체로 봤을 때, 규모와 상관 없이 적용해나가는게 적절한 것인지 궁금합니다. 이런 질문을 드리는 이유는 쿠버네티스가 클라우드 생태계의 de facto가 되어 플랫폼화 됐다면 규모에 상관 없이 해당 플랫폼을 사용하였을 때 얻는 이점이 많다는 생각이 들었습니다. 질문 2. 서비스 규모 고려 쿠버네티스 도입을 고려할 때 서비스 규모만 고려한다면 강사님께서 생각하시는 적절한 규모는 어느정도인지 궁금합니다. 질문 읽어주셔서 감사합니다!
-
미해결초보를 위한 쿠버네티스 안내서
안녕하세요! 질문있습니다
데브옵스 엔지니어가 되고 싶은 it꿈나무입니다. 쿠버네티스 도커 강의 듣는데 개발요소가 너무 많아서 질문 드립니다. yaml문법이나 코드등 얼만큼의 지식이 필요한지요? 읽을줄 알면 되는지 읽고 만들줄도 알아야하는지, 그리고 공부해야할 필수 언어가 있는지 여쭤봅니다 .. 개발을 한번도 해보지 않아서 힘드네요 ㅠ
-
미해결쉽게 시작하는 쿠버네티스(v1.30) - {{ x86-64, arm64 }}
EKS,AKS,GKE 실습에서 외부 통신이 디폴트로 허용되어 있나요?
실습에서 github 링크를 그대로 -f 옵션으로 적용하는 것을 보면서 궁금증이 있어서 질문드립니다. 쿠버네티스는 서비스를 통해 외부와 통신한다고 학습했었는데, EKS 와 같은 클라우드의 쿠버네티스는 디폴트 상태로 외부 통신인 public 망과 통신이 가능한가요? 아니면 따로 설정을 해주신건가요? 감사합니다.
-
미해결대세는 쿠버네티스 [초급~중급]
cat join.sh
쿠버네티스 기본 세팅중에 문제가 생겨서 질문을 남깁니다. 해당 내용에서 cat ~/join.sh를했는데도 불구하고 아무것도 나오지않습니다.. 다른것들은 cat했더니 내용이 나오는데 해당 파일이 비어있는것일까요?
-
미해결초보를 위한 쿠버네티스 안내서
쿠버네티스 rollout에 대해 질문있습니다.
안녕하세요. 쿠버네티스 관련하여 질문이 있습니다. yaml파일에서 이미지를 불러올떄 imagePullPolicy: Always와 버전 latest를 사용하고 있으며, 이미지는 버전관리 없이 docker hub latest로만 업데이트 되고 있습니다. 그런데 궁금한 부분이 이전 rollout undo 명령어를 사용하여 이전에 사용한 팟을 다시 실행하는 기능이 있던데, 이 경우 이전에 사용한 lateset 이미지를 사용하여 Pod을 다시 실행하는 것인지?? 아니면 이미지를 다시 다운받아서 이전 팟에 띄우는 것인지 궁금합니다.
-
미해결데브옵스(DevOps)를 위한 쿠버네티스 마스터
파드 생성이 잘 안됩니다..
안녕하세요 쿠버네티스로 파드 생성이 잘 안돼서 질문드립니다. 어떤 부분을 조사해보고 검색해야 할지 알려주시면 감사하겠습니다. kubectl run nginx --image="httpd:latest" 이렇게 명령어를 실행하고 kubectl describe pod nginx describe 실행해보면 결과는 사진처럼 나옵니다. 사진속 에러 내용으로 검색해도 저는 weave CNI를 사용해서 저랑 다른 경우같고 잘 모르겠더라구요.. Failed to create pod sandbox: rpc error: code = Unknown desc = [failed to set up sandbox container "37~" network for pod "nginx": networkPlugin cni failed to set up pod "nginx_default" network: unable to allocate IP address: Post "http://127.0.0.1:6784/ip/37~": dial tcp 127.0.0.1:6784: connect: connection refused, failed to clean up sandbox container "37~" network for pod "nginx": networkPlugin cni failed to teardown pod "nginx_default" network: Delete "http://127.0.0.1:6784/ip/37~": dial tcp 127.0.0.1:6784: connect: connection refused] Pod sandbox changed, it will be killed and re-created. # kubectl get pods --all-namespaces -o wide NAMESPACE NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES default nginx 0/1 ContainerCreating 0 17m <none> ip-172-31-33-5 <none> <none> default nod 0/1 ContainerCreating 0 21m <none> ip-172-31-33-50 <none> <none> kube-system coredns-78fcd69978-dx7kj 1/1 Running 0 32m 10.32.0.3 ip-172-31-36-245 <none> <none> kube-system coredns-78fcd69978-sfhfg 1/1 Running 0 32m 10.32.0.2 ip-172-31-36-245 <none> <none> kube-system etcd-ip-172-31-36-245 1/1 Running 1 32m 172.31.36.245 ip-172-31-36-245 <none> <none> kube-system kube-apiserver-ip-172-31-36-245 1/1 Running 1 32m 172.31.36.245 ip-172-31-36-245 <none> <none> kube-system kube-controller-manager-ip-172-31-36-245 1/1 Running 1 32m 172.31.36.245 ip-172-31-36-245 <none> <none> kube-system kube-proxy-cr76b 1/1 Running 0 32m 172.31.36.245 ip-172-31-36-245 <none> <none> kube-system kube-proxy-p5h4x 1/1 Running 0 30m 172.31.33.50 ip-172-31-33-50 <none> <none> kube-system kube-proxy-q4h5d 1/1 Running 0 29m 172.31.33.5 ip-172-31-33-5 <none> <none> kube-system kube-scheduler-ip-172-31-36-245 1/1 Running 1 32m 172.31.36.245 ip-172-31-36-245 <none> <none> kube-system weave-net-972tp 2/2 Running 1 (31m ago) 31m 172.31.36.245 ip-172-31-36-245 <none> <none> kube-system weave-net-z2mjm 1/2 CrashLoopBackOff 9 (3m32s ago) 29m 172.31.33.5 ip-172-31-33-5 <none> <none> kube-system weave-net-zgpn7 1/2 CrashLoopBackOff 9 (3m54s ago) 30m 172.31.33.50 ip-172-31-33-50 <none> <none>
-
미해결대세는 쿠버네티스 [초급~중급]
클러스터 설치 관련 질문 드립니다.
현재 Azure Cloud내 동일 VNet에 VM 3대를 생성하고 Case 4의 클러스터 설치 작업을 진행하였습니다. DashBoard 설치까지는 이슈없이 잘 진행이 되었으나 DashBoard 설치 후 VM에 할당된 공인 IP를 입력하여 PIP:8001/api/v1/namespaces/kubernetes-dashboard/services/https:kubernetes-dashboard:/proxy/ 에 접속 시 { "kind": "Status", "apiVersion": "v1", "metadata": { }, "status": "Failure", "message": "error trying to reach service: dial tcp 20.97.224.67:8443: i/o timeout", "code": 500 }메시지가 뜨는 이슈가 있습니다.모든 포트에 대해 Open을 해두었기에 포트나 IP 차단에 대한 이슈는 없을겁니다.혹시 다른 케이스의 설치작업을 진행해줘야 할까요??아니면 별도로 진행해줘야 할 작업이 있을까요?추가적으로 VM 내에서 curl localhost:8001 로 접속시 Connection Refused가 뜹니다.
-
미해결
클러스터 구성 관련 이슈 문의입니다.
현재 Azure Cloud내 동일 VNet에 VM 3대를 생성하고 Case 4의 클러스터 설치 작업을 진행하였습니다. DashBoard 설치까지는 이슈없이 잘 진행이 되었으나 DashBoard 설치 후 VM에 할당된 공인 IP를 입력하여 PIP:8001/api/v1/namespaces/kubernetes-dashboard/services/https:kubernetes-dashboard:/proxy/ 에 접속 시 { "kind": "Status", "apiVersion": "v1", "metadata": { }, "status": "Failure", "message": "error trying to reach service: dial tcp 20.97.224.67:8443: i/o timeout", "code": 500 }메시지가 뜨는 이슈가 있습니다.모든 포트에 대해 Open을 해두었기에 포트나 IP 차단에 대한 이슈는 없을겁니다.혹시 다른 케이스의 설치작업을 진행해줘야 할까요??아니면 별도로 진행해줘야 할 작업이 있을까요?추가적으로 VM 내에서 curl localhost:8001 로 접속시 Connection Refused가 뜹니다.
-
해결됨그림으로 배우는 쿠버네티스(v1.30) - {{ x86-64, arm64 }}
vagrant up으로 쿠버네티스 환경 구축하는 과정에서 문제가 발생합니다.
안녕하세요, 그림으로 배우는 쿠버네티스(v1.22) 강의 들으며 실습 환경 구추해보고 있는데요, 쿠버네티스 실습 환경 구축을 위해서 1.5 과정의 vagrant up으로 vm을 구성하는 도중에 문제가 발생합니다. WO-m-k8s-1.20는 정상적으로 installed 되었는데요, 문제는 WO-w1-k8s-1.20 설치가 아래 그림처럼 정상적으로 되지 않습니다. SSH auth method: private key 이후에 timed out 되면서 그 다음이 진행이 되고 있지 않는데 혹시 해결 방법을 알 수 있을까요?
-
미해결쉽게 시작하는 쿠버네티스(v1.30) - {{ x86-64, arm64 }}
멀티컨텍스트 사양
안녕하세요 강의처음에 포함된 대로 랩을 구성했을때도 노트북 메모리 93~95%사용이었는데요(8gb) 이 동영상에 포함된 멀티 컨텍스트가 8gb에서 돌아갈까요?;; 아니면 16GB 램은 되어야 돌아갈까요?
-
미해결쉽게 시작하는 쿠버네티스(v1.30) - {{ x86-64, arm64 }}
질문입니다.
안녕하세요 강의 잘 보고 있습니다 궁금한 점이 있어서 문의드립니다 현재 get pod -o wide를 해보면 w3 노드에 pod가 배포된 것으로 나오는데요 그러면 서비스 노출 후에 w3 노드의 ip로 접속해야 하지 않을까 하고 생각해보았습니다 하지만 w1, w2, w3 모든 internal ip가 다 먹는데 이유가 궁금합니다. 아니면 제가 생각하고 있는 짐작 자체가 틀린 것일까요?
-
미해결초보를 위한 쿠버네티스 안내서
쿠버네티스 도커 종료 관련 하여 문의 드립니다.
클라우드 쿠버네티스 서비스 관리자 - 컨테이나 런타임 설치를 클라우드에서 관리하기 때문에 버전 업데이트하면 자동으로 바뀝니다. 클라우드에서 쿠버네티스와 도커를 사용 중이라면 쿠버네티스에서 도커지원을 종료 하여도 크게 문제가 없나요? 버전 업데이트 하면 다른 컨테이너로 관리하거나 자동으로 컨테이너를 생성 하나요 ?
-
미해결쉽게 시작하는 쿠버네티스(v1.30) - {{ x86-64, arm64 }}
마스터 노드 & 워크노드에 존재하는 여러개의 IP에 대한 각각의 용도 문의 드립니다.
안녕하세요. 기존에 레가시 시스템에 익숙해져있다가 본강의를 시작으로 쿠버네티스에 입문하였습니다. 강의 영상을 수강하면서 쿠버네티스를 설치하였습니다. 설치하고보니 마스트 노드, 워크노드에 여러개의 IP가 존재하는데, 아래의 각각의 IP가 무슨 용도이며 어떤 역할을 하는지 궁금합니다. 감사합니다. ========================================================= docker0: flags=4099<UP,BROADCAST,MULTICAST> mtu 1500 inet 172.17.0.1 netmask 255.255.0.0 broadcast 172.17.255.255 eth0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500 inet 10.0.2.15 netmask 255.255.255.0 broadcast 10.0.2.255 eth1: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500 inet 192.168.1.10 netmask 255.255.255.0 broadcast 192.168.1.255 tunl0: flags=193<UP,RUNNING,NOARP> mtu 1480 inet 172.16.171.64 netmask 255.255.255.255 =============================================================== 강의와 관련있는 질문을 남겨주세요.• 강의와 관련이 없는 질문은 지식공유자가 답변하지 않을 수 있습니다. (사적 상담, 컨설팅, 과제 풀이 등)• 질문을 남기기 전, 비슷한 내용을 질문한 수강생이 있는지 먼저 검색을 해주세요. (중복 질문을 자제해주세요.)• 서비스 운영 관련 질문은 인프런 우측 하단 ‘문의하기’를 이용해주세요. (영상 재생 문제, 사이트 버그, 강의 환불 등) 질문 전달에도 요령이 필요합니다.• 지식공유자가 질문을 좀 더 쉽게 확인할 수 있게 도와주세요.• 강의실 페이지(/lecture) 에서 '질문하기'를 이용해주시면 질문과 연관된 수업 영상 제목이 함께 등록됩니다.• 강의 대시보드에서 질문을 남길 경우, 관련 섹션 및 수업 제목을 기재해주세요. • 수업 특정 구간에 대한 질문은 꼭 영상 타임코드를 남겨주세요! 구체적인 질문일수록 명확한 답을 받을 수 있어요.• 질문 제목은 핵심 키워드를 포함해 간결하게 적어주세요.• 질문 내용은 자세하게 적어주시되, 지식공유자가 답변할 수 있도록 구체적으로 남겨주세요.• 정확한 질문 내용과 함께 코드를 적어주시거나, 캡쳐 이미지를 첨부하면 더욱 좋습니다. 기본적인 예의를 지켜주세요.• 정중한 의견 및 문의 제시, 감사 인사 등의 커뮤니케이션은 더 나은 강의를 위한 기틀이 됩니다. • 질문이 있을 때에는 강의를 만든 지식공유자에 대한 기본적인 예의를 꼭 지켜주세요. • 반말, 욕설, 과격한 표현 등 지식공유자를 불쾌하게 할 수 있는 내용은 스팸 처리 등 제재를 가할 수 있습니다.