묻고 답해요
141만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결
vagrant up 에러
vagrant up을 실행하면 vmware 실행을 실패했다고 나오는데 vmnet7만 빼고 실행이 되는데 어떻게 해야하나요..?(base) bomi@bomiui-MacBookPro k8s % vagrant upBringing machine 'cp-k8s-1.30.0' up with 'vmware_desktop' provider...Bringing machine 'w1-k8s-1.30.0' up with 'vmware_desktop' provider...Bringing machine 'w2-k8s-1.30.0' up with 'vmware_desktop' provider...Bringing machine 'w3-k8s-1.30.0' up with 'vmware_desktop' provider...==> cp-k8s-1.30.0: Checking if box 'sysnet4admin/Ubuntu-k8s' version '0.8.6' is up to date...==> cp-k8s-1.30.0: Verifying vmnet devices are healthy...The VMware "vmnet" devices are failing to start. The most commonreason for this is collisions with existing network services. Forexample, if a hostonly network space collides with another hostonlynetwork (such as with VirtualBox), it will fail to start. Likewise,if forwarded ports collide with other listening ports, it willfail to start. Vagrant does its best to fix these issues, but in some cases itcannot determine the root cause of these failures. Please verify you have no other colliding network services running.As a last resort, restarting your computer often fixes this issue.
-
해결됨개발자를 위한 쉬운 도커
강사님 강의 정말 잘 듣고 있습니다.
혹시 쿠버네티스 강의 오픈할 예정에 있으신지 궁금합니다 .. !
-
해결됨기초부터 배우는 Next YTMusic 클론 코딩 (with next.js 14, UI 마스터)
versel 을 통한 배포를 하는 것과 (홈서버 + 클라우드 플래어 프록시)를 하는 것을 비교해주실 수 있나요?
안녕하세요. 우선 소개부터 드리자면 저는 FE 개발자나 그쪽을 지망하는 것은 아니고 백엔드를 업으로 하고 있고 집에서 홈서버에 제 개인 서비스를 배포할 목적으로 해당 강의를 수강하게 되었습니다. 사실 제가 프론트의 세계는 잘 몰라서 질문 드립니다. 혹시 페이지 로드 속도 & 검색 엔진 노출도가 배포 플랫폼에 영향을 받을까요?다른 말로는, versel 을 통해 프론트를 배포하는 것이 배포가 쉬운 것 이외에 서비스의 퀄리티에도 도움을 주는 장점이 있을까요 ?
-
미해결
쿠버네티스 클러스터 구성
안녕하세요, 선생님들.. 입사한지 막 1년이 된 어른이 입니다... 지금 최대 난관에 봉착 되어 있습니다.사내 망 베어메탈 환경에 구축된 쿠버네티스 클러스터에, 사외 망에 있는 VM 10대를 워커 노드로 추가하려고 합니다. 문제가 VM 특성 상 NAT IP 1개에 SSH 접속 포트는 10개로 (1xx01~1xx10) 구별하고 있고, 모든 포트도 오픈 할 수 없는 상황입니다. 이런 조건에서 VM을 워커노드로 추가가 가능한 것인지..., 가능하다면 좋은 방법이 있으신지 질문 드려봅니다. 노드 추가는 Kubespray로 하고 있고, CNI는 calico 환경입니다.추가로, VM에 배포한 Calico Pod의 에러로그를 보니 10.233.0.1 (사내 망의 Master Node의 default service 주소)를 못 찾고 있었습니다. VM Calico Pod -> Master Node k8s default service -> Master Node api server 순으로 찌르는 것 같았습니다. 더불어, VM에서는 curl -k "https://121.134.39.25(master node nat ip):6443/api" 할 때 응답이 오긴 했었습니다.
-
미해결Jenkins를 이용한 CI/CD Pipeline 구축
yml 파일 apply 후 deployment 생성 실패
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요.안녕하세요 강의 잘 듣고 있습니다. 다름이 아니라 deployment apply 후에 kubectl get pods 로 조회하면 두개의 pod가 crashloopbackoff 라는 오류를 보여서 실패합니다저는 k8s를 centos 3대(master, node1, node2)로 생성했습니다. yml 파일은 알려주신 github 주소에 있는대로 작성해서 진행했는데 뭐가 문제인지 알 수 있을까요?
-
미해결초보를 위한 쿠버네티스 안내서
쿠버네티스배포데모" 코드 제공 (재)문의
강사님 안녕하세요.쿠버네티스배포데모 소스코드는 제공에 대해 한 번 문의 드렸는데요 바쁘신 것은 충분히 예상됩니다만 한 번더 문의 드립니다."쿠버네티스알아보기>쿠버네티스배포" 데모에서 시연해주신 환경에 대한 질문입니다.EKS에 2개의 노드를 만들고 helm으로 어플리케이션을 배포하셨는데요, EKS 환경을 만들고, helm으로 application을 배포하는 것에 대한 자료를 받을 수 있을지 지난 8월경 문의 드린 적이 있고, 공유계획이 있으시다고 하셨는데, 공유 예상 대략의 일정을 알 수 있을까요?AWS EKS 환경을 만들고 서비스 배포까지 일련의 전체 과정을 볼 수 있을 것 같아 업무에 적용하는데 도움이 많이 될 것으로 생각됩니다.추가로, 쿠버네티스배포데모에서 그라파나와 로키에 대해서 보여주셨고, 쿠버네티스 모니터링 설정에 대한 내용도 공유할 계획이 있다고 다른 수강자분의 문의에 답변을 주셨었는데요, 이것에 대한 대략의 공유 일정이 있다면 같이 알고 싶습니다. 감사합니다.
-
미해결초보를 위한 쿠버네티스 안내서
"쿠버네티스배포데모" 코드 제공 재문의
강사님 안녕하세요.쿠버네티스배포데모 소스코드는 제공에 대해 한 번 문의 드렸는데요 바쁘신 것은 충분히 예상됩니다만 한 번더 문의 드립니다."쿠버네티스알아보기>쿠버네티스배포" 데모에서 시연해주신 환경에 대한 질문입니다.EKS에 2개의 노드를 만들고 helm으로 어플리케이션을 배포하셨는데요, EKS 환경을 만들고, helm으로 application을 배포하는 것에 대한 자료를 받을 수 있을지 지난 8월경 문의 드린 적이 있고, 공유계획이 있으시다고 하셨는데, 공유 예상 대략의 일정을 알 수 있을까요?AWS EKS 환경을 만들고 서비스 배포까지 일련의 전체 과정을 볼 수 있을 것 같아 업무에 적용하는데 도움이 많이 될 것으로 생각됩니다. 추가로, 쿠버네티스배포데모에서 그라파나와 로키에 대해서 보여주셨고, 쿠버네티스 모니터링 설정에 대한 내용도 공유할 계획이 있다고 다른 수강자분의 문의에 답변을 주셨었는데요, 이것에 대한 대략의 공유 일정이 있다면 같이 알고 싶습니다. 감사합니다.
-
미해결Nuxt.js 시작하기
리눅스 도커 환경 배포 시 스택 문의
안녕하세요. 게시판 형태의 nuxt 앱 배포환경을 고민하고 있습니다.백엔드 API 서버들은 온프레미스 서버(사무실 서버)와 클라우드에 분산되어 있고, SSR에 따른 SEO와 로딩 속도와 같은 장점을 기대하고 Nuxt로 개발 중입니다.선택지는 다음과 같지만, 2번이 우세한 상황입니다.vercel과 같은 SSR을 지원하는 PaaS를 사용하여 배포리눅스 서버 위 도커 컨테이너로 배포2번을 고려하고 있는 이유는 비용상의 문제보다는 성능과 기능 구현 때문에 고려하고 있습니다(Nginx에서 특정 ip 차단, pm2 프로세스 관리, 동일 서버에 올라간 백엔드 API 컨테이너와 유닉스 소켓으로 연결 등). 또한, 아마 다른 서비스에서 조만간 쿠버네티스를 도입할 것 같아 미래를 고려하는 점도 있습니다. 리눅스 도커 환경에 직접 배포할 때, 도커를 사용하는 부분은 문제가 없으나 스택을 어떻게 구성해야 할지 문의드립니다.간단하게 찾아본 결과 Nginx + pm2 + node(nuxt) 구조에서 각 서비스가 빠지거나 포함되는 것 같은데, 서로 충돌하는 의견이 많은 것 같아 혹시 추천해주실 수 있는 스택이 있는지 문의드립니다. Nginx : 정적 컨텐츠와 빠르고 편리한 https(TLS), 리버스 프록시를 통한 보안과 속도 때문에 필요함. node로도 해당 기능들이 모두 가능하니 필요 없다는 주장도 있으나, 웹서버 점유율에서 node.js가 1~2%라는 자료들에 의하면 의구심이 듦.pm2 : 로그와 프로세스를 편리하게 관리하기 위해서 필요하다는 의견이 많으나, 도커 기반 환경에서는 오히려 도커나 k8s가 프로세스나 로그를 관리하는 것을 방해한다는 의견(https://www.docker.com/blog/keep-nodejs-rockin-in-docker/ )도 있음. 일단 현재는 docker-compose로 Nginx-pm2-node(nuxt) 형태로 개발하고 있습니다. 아마 네카라쿠배에서는 이런 부분이 인프라나 DevOps 쪽으로 분업되어 있어 강사님께서 이런 고민은 생소하실 수도 있겠다는 생각이 들지만, 저 말고도 타의로 프론트엔드를 시작한 분들이 있을 수 있겠다는 생각이 들어 올려봅니다 : )
-
미해결데브옵스(DevOps)를 위한 쿠버네티스 마스터
rolling update 중 time out error
안녕하세요.http-go 이미지를 바꿀때마다 순단이 일어나는데요rolling update 컨셉을 보면 순단이 일어나면 안될 것 같은데 이유가 뭘까요?Welcome! v2 Welcome! v1 Welcome! v2 wget: can't connect to remote host (10.8.1.107): Connection timed out Welcome! v2 Welcome! v2 Welcome! v2 ... Welcome! v2 Welcome! v3 Welcome! v3 Welcome! v3 wget: can't connect to remote host (10.8.1.107): Connection timed out Welcome! v3 Welcome! v3 Welcome! v3 ...두 번 모두 모든 트래픽이 새로운 어플리케이션 버전이 배포된 pod 로보내지기 전에 순단이 1회 발생합니다!
-
미해결대세는 쿠버네티스 [초급~중급]
초기 설치 관련건
안녕하세요 강사님 aws 인스턴스에서 쿠버 세팅중 질문 있어서 아래와 같은 질문 드립니다. http://192.168.0.30:8001/api/v1/namespaces/kube-system/services/https:kubernetes-dashboard:/proxy/으로 대쉬보드 접속 하기위하여 192.168.0.30 부분을 aws ec2 공인 IP로 설정 하였습니다.하지만, 사이트가 정상적으로 열리지 않은 상태입니다.블로그에 상세한 설명 덕분에 기존에 되지 않던 설치는 완료 되었습니다.해당부분 처리 방법 알수 있을까요?
-
미해결대세는 쿠버네티스 [초급~중급]
쿠버네티스 Pod 접속 관련 문의 드립니다.
안녕하세요 K8S 통신 관련 문의 드립니다. 현재 kubectl get nodes 명령어를 입력 시 다음과 같이 모든 Node에서 Ready 상태가 정상적으로 뜨지만 해당 내용의 YAML파일을 바탕으로 kubectl apply -f nginx-pod.yaml 명령어를 사용하여 해당 Pod 가 정상적으로 생성,동작됨이 확인됩니다. kubectl describe pods my-nignx-pod 명령어를 사용하여 해당 pod의 IP주소를 확인하였고 curl 20.102.133.4 명령어를 통해 해당 pod로 접속시도를 해보았으나 다음과 같이 응답을 하지 않습니다. 혹시나 싶어 해당 Pod가 있는 VM의 IP 주소인 10.0.0.6 으로 Ping 테스트를 해보았을때는 Ping은 이상없이 잘 동작합니다. 해당 Pod에 대한 접속 방법에대해 말씀해주시면 감사하겠습니다. 감사합니다.
-
미해결대세는 쿠버네티스 [Helm편]
k8s 의 모니터링은 무엇으로 하는게 좋을까요?
helm과는 좀 벗어나는 얘기지만 그래도 딱히 해결할 곳이 없어서 문의합니다. 모니터링이라고 하면 시스템이 죽고 살고, 자원을 얼마나 쓰고 얼마나 남았고 를 봐야 할거 같은데요. 전통적인 서버-application 인 시스템은 서버의 자원을 모니터링하고, application이 죽었나 살았나 확인하고. 이렇게 되어 있습니다. 근데 여기서 k8s라는 한 layer가 더 들어오다 보니 도통 어디를 봐야 할지가 혼동이 옵니다. 시스템 자원만 보기에는, k8s에서 할당한 자원, 즉 pods 내부를 모니터링 해야 하는건지 그 방법이 있는건지, 거기에 더해 pod이 죽고 살고 deployment가 몇개가 문제가 발생 했고 등 이런것들을 속시원히 모니터링 할 수 있는 툴이 좀 있을까요? 다양한 노드, 호스트들의 자원, 서비스 현황, pods상태 등을 하나의 대시보드로 보고 싶습니다....
-
미해결데브옵스(DevOps)를 위한 쿠버네티스 마스터
argocd 로 배포한 것 삭제 질문 있어요
argoCd 를 이용해 CD를 구성했습니다. sync 하여 예제 app 을 배포한 후 해당 app의 CD 를 제거 했습니다. 제가 생각했던 결과물은 "CD를 제거 하면 worker node에서 예제 app이 제거 되는 것" 이었습니다. 하지만 deploy, svc, pod 전부 그대로 떠 있더라구요. 원인이 무엇일까요? 제가 잘못 한 부분이 있는 것일까요 아니면 argoCd에선 CD를 삭제해도 CD만 제거될 뿐 worker node에 띄워진 app은 건드리지 않는 것인가요?
-
미해결데브옵스(DevOps)를 위한 쿠버네티스 마스터
pv와 pvc에 대한 궁금증을 질문드립니다. :)
1. spec.capacity.storage 와 spec.accessModes가 동일할시에 자동으로 연결 시켜준다고 강의에서 확인하였습니다. 그런데 제가 본 다른 글중에서 labelSelect 로 선택하는 경우도 있고, stoarage의 양이 pv가 pvc보다 더 높은경우도 보았습니다. ``` apiVersion: v1 kind: PersistentVolumeClaim metadata: name: myclaim spec: accessModes: - ReadWriteOnce volumeMode: Filesystem resources: requests: storage: 8Gi storageClassName: slow selector: matchLabels: release: "stable" matchExpressions: - {key: environment, operator: In, values: [dev]} ``` pv와 pvc가 연결되는 경우가 사실 여러가지가 있는건가요? 2. 아마 storageClass를 사용하지 않을때는, pvc에서 spec.storageClassName을 ""로 명시하는 경우가 있는것같습니다. 그 경우는 ""로 명시하지 않을경우, 기본 스토리지 클래스가 잡혀서 PV가 없어도 자동으로 생성이 되어서 그런걸까요? 3. 기본 스토리지 클래스는, 제가 설정한적도 만든적도 없는데, 언제 어떤것이 만들어 진건가요? 4. 그리고 storageClass를 사용하지 않는 경우에도, Pv와 pvc에 storageClass를 명시하는 경우도 보았는데, 이 경우는 어떤 경우일까요? 항상 강의 잘보고 있습니다. 감사합니다. :)
-
미해결쉽게 시작하는 쿠버네티스(v1.30) - {{ x86-64, arm64 }}
실습환경구성/구조 문의
뒷 부분 3.2, 3.3 강의에서 설명을 해주시네요. 질문은 남겨 놓겠습니다. 실습 환경으로 vm 4개가 만들어지게 되는데요, 마스터노드1개와 워커노드3개 구성으로 보입니다.구성된 실습환경에 대해 한 번 설명을 해주셨으면 좋겠습니다. - 노드 4개가 클러스터 구성이고 마스터노드의 역할 등- 구성해두신 쿠버네티스에 대해 pod 와 오브젝트들에 대한 설명 등
-
미해결초보를 위한 쿠버네티스 안내서
K8S YAML 문법 문의
안녕하세요 강의 잘 듣고 있습니다. 다름이 아니오라 YAML 파일을 작성하는데 있어 궁금한 점이 생겨 문의드립니다. 오브젝트를 정의하기 위해 개별속성값들에 대한 정보를 기입을 해줘야 하는 것으로 알고 있습니다. - apiVersion - kind - metadata - spec Q. 위에 기재한 4개 속성은 인터넷에 쉽게 검색하면 나올 수 있지만 - 내부적인 추가 개별속성값 (selector, args.. etc)들은 어떤 것들이 있는지? - 그것들이 어떤 의미를 내포하는지? - 아래 속성값들과 어떤 relation을 가지고 있는지? 이러한 내부 속성값들에 대한 detail한 부분들을 어디에서 공부할 수 있는지 궁금합니다. Ex) 잘못된 Deployment YAML 문법 apiVersion: apps/v1 kind: Deployment metadata: name: httpd-frontend spec: replicas: 3 selector: matchLabels: app: httpd-frontend template: metadata: labels: app: httpd-frontend spec: containers: - name: httpd-frontend image: httpd:2.4-alpine # 올바른 문법 apiVersion: apps/v1 kind: Deployment metadata: name: httpd-frontend spec: replicas: 3 selector: matchLabels: name: httpd-frontend template: metadata: labels: name: httpd-frontend spec: containers: - name: httpd-frontend image: httpd:2.4-alpine 이 경우 matchLabels 가 어떤 의미를 내포하고 내부 속성값들로 어떤 것들을 기입할 수 있는지 궁금하며 왜 selector → matchLabels 내 app이 아닌 name을 기입해야하는지 어떤 상관관계를 가지는지 궁금합니다. 즉, 최상위 속성값들을 제한 하위 속성값들에 대한 관계 및 의미를 알고 싶은데 어디서 알 수 있는지 궁금합니다.
-
미해결쉽게 시작하는 쿠버네티스(v1.30) - {{ x86-64, arm64 }}
vagrant up으로 설치하는 도중 kubeadm init 관련 오류
안녕하세요. 강의 1.2 코드로 쉽게 구성하는 쿠버네티스 랩 환경 구축 도중 에러가 발생해서 질문 드립니다. 아래의 캡처 화면 처럼 m-k8s-1.20 가상머신은 정상적으로 설치된 거 같고 그 이후에 master-node.sh 실행에서 문제가 발생하는 것 같습니다. kubeadm init ~~ 하는 부분에서 아래처럼 오류가 나타나는데 이유를 알 수 있을까요?
-
미해결대세는 쿠버네티스 [초급~중급]
클러스터 설치 관련 질문 드립니다.
현재 Azure Cloud내 동일 VNet에 VM 3대를 생성하고 Case 4의 클러스터 설치 작업을 진행하였습니다. DashBoard 설치까지는 이슈없이 잘 진행이 되었으나 DashBoard 설치 후 VM에 할당된 공인 IP를 입력하여 PIP:8001/api/v1/namespaces/kubernetes-dashboard/services/https:kubernetes-dashboard:/proxy/ 에 접속 시 { "kind": "Status", "apiVersion": "v1", "metadata": { }, "status": "Failure", "message": "error trying to reach service: dial tcp 20.97.224.67:8443: i/o timeout", "code": 500 }메시지가 뜨는 이슈가 있습니다.모든 포트에 대해 Open을 해두었기에 포트나 IP 차단에 대한 이슈는 없을겁니다.혹시 다른 케이스의 설치작업을 진행해줘야 할까요??아니면 별도로 진행해줘야 할 작업이 있을까요?추가적으로 VM 내에서 curl localhost:8001 로 접속시 Connection Refused가 뜹니다.
-
미해결
클러스터 구성 관련 이슈 문의입니다.
현재 Azure Cloud내 동일 VNet에 VM 3대를 생성하고 Case 4의 클러스터 설치 작업을 진행하였습니다. DashBoard 설치까지는 이슈없이 잘 진행이 되었으나 DashBoard 설치 후 VM에 할당된 공인 IP를 입력하여 PIP:8001/api/v1/namespaces/kubernetes-dashboard/services/https:kubernetes-dashboard:/proxy/ 에 접속 시 { "kind": "Status", "apiVersion": "v1", "metadata": { }, "status": "Failure", "message": "error trying to reach service: dial tcp 20.97.224.67:8443: i/o timeout", "code": 500 }메시지가 뜨는 이슈가 있습니다.모든 포트에 대해 Open을 해두었기에 포트나 IP 차단에 대한 이슈는 없을겁니다.혹시 다른 케이스의 설치작업을 진행해줘야 할까요??아니면 별도로 진행해줘야 할 작업이 있을까요?추가적으로 VM 내에서 curl localhost:8001 로 접속시 Connection Refused가 뜹니다.
-
미해결쉽게 시작하는 쿠버네티스(v1.30) - {{ x86-64, arm64 }}
컨테이너와 가상머신의 트래픽 분산 관련 질문드립니다
안녕하세요 질문이있어서 글 남깁니다. 컨테이너 기반으로 서버 구축시에 쿠버네티스를 통하여 스케일 아웃이되어 트래픽 분산을 할 수 있으며 사용 리소스에 따라 컨테이너를 오케스트레이션하여 비용을 절감시킨다고 알고 있습니다. 그러나 생각보니 실질적으로 가상머신 내부의 컨테이너 기술을 사용하는거고 가상머신 자체를 스케일다운을 하지 않는 이상은 컨테이너 영역에서의 오케스트레이션으로 비용절감이 의미가 있을지 궁금합니다. (컨테이너 기반 서버의 수는 리소스에 따라 감소하나 실제 윗단 가상OS의 스케일 다운은 자동적으로 처리가 안되기 때문입니다.) 이에 관련하여 왜 컨테이너를 사용시 비용이 절감되는지 자세한 이유를 설명듣고 싶습니다. 감사합니다.