묻고 답해요
148만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
해결됨개발자를 위한 쉬운 도커
loaclhost와 네트워크 관련 질문입니다.
실습 저의 개인 맥북 PC에서 Nestjs 서버를 돌리고 있고 Nestjs에서 첨부한 사진과 같이 docker컨테이너로 mysql을 실행 시켜 늘 localhost로 hosturl을 연결해서 사용 했습니다.이 경우에는 왜 컨테이너 id를 url로 사용하지 않아도 사용이 된걸까요 ?컨테이너로 nestjs를 돌리는게 아니라 외부 연결로 간주되어 그런걸까요 ..?
-
미해결대세는 쿠버네티스 [초급~중급]
1.27버전 대쉬보드 관련 질문입니다.
1.27버전으로 학습중에 있습니다.pod들이 전부 정상적으로 running상태에 있으며 QnA에 들어있는 내용과 vagrant 재설치 모두 해봤는데 다음과 같이 대쉬보드에 아무것도 뜨지 않는데 1.27버전이라 그런건가요? 아님 고치는 방법이 있을까요?
-
해결됨개발자를 위한 쉬운 도커
시크릿모드 질문입니다.
안녕하세요 강사님.강의에 내용처럼 3개의 컨테이너를 실행시킨뒤 시크릿 모드로 접속을 하면 애플리케이션이 잘 작동하나 일반 크롬으로 접속을하면 애플리케이션이 작동을 하지 않을데 혹시 해당 이유를 알수 있을까요 ??
-
해결됨개발자를 위한 쉬운 도커
안녕하세요! 도커 강의를 듣고 있는 학생입니다!
도커 강의 잘 듣고 있습니다 정말 이해가 잘되고 내것으로 만들 수 있어서 좋아요! 혹시 다음에 계획된 강의나 계획된 강의가 있으시면 추후에 언제 올리실 예정이신가요?
-
미해결멀티OS 사용을 위한 가상화 환경 구축 가이드 (Docker + Kubernetes)
vi /etc/hosts를 진행할 시 블루스크린이 뜹니다.
가상머신에 Docker 설치하기에서 3:48에 가상머신에 vi /etc/hosts를 이용해 파일 수정을 하는부분에서 명령어를 칠 시 블루스크린이 뜹니다.이런 경우는 어떻게 해결해야할까요.오라클 vm virualbox에선 명령어가 잘 되는데 Termius에서 ssh접속 후 명령어 실행 시 블루스크린이 뜹니다.
-
미해결실습으로 배우는 선착순 이벤트 시스템
kafka Consumer
Kafka를 사용하는 주된 이유 중 하나는 확실히 데이터 처리의 유연성과 부하 분산에 있습니다. Kafka를 활용함으로써, 많은 양의 이벤트(예: 쿠폰 발행 요청)를 바로 처리하지 않고 큐에 보관했다가, 시스템의 부하가 적은 시기에 또는 자원이 더욱 충분할 때 일괄적으로 처리할 수 있게 됩니다.kafka 관련해서 다른 분 질문에 답글이 위처럼 달린 것을 확인했는데요.. 큐에 보관했다가 일괄적으로 처리를 할 수 있다고 했는데 그럼 컨슈머 listener 에 언제 카프카에 있는 이벤트를 받아서 처리할 것인지에 대한 설정을 할 수 있는 것인가요?시스템 부하가 적은 시기나 자원이 충분할 때가 언제인지 어떻게 알고 처리를 하는지 궁금합니다.
-
해결됨개발자를 위한 쉬운 도커
도커의 네트워크 사용에 대한 궁금증이 있습니다.
강사님 덕분에 너무 좋은 양질의 강의를 잘 듣고 있습니다 !여러번 반복해서 강의를 수강하다 보니 처음 들을 땐 안생기던 궁금 증이 생겨 질문 드립니다.도커의 네트워크 기술이 있는 이유가 궁금합니다.강의 수강 이전에는 도커에 대한 이해 없이 늘 새로운 소프트웨어(Redis나 DB등등)를 사용할때 구글링을 하여 도커 명령어를 블로그에서 사용법을 가볍게 익힌채 사용을 했습니다.그 과정에서 늘 -p 옵션을 사용해 포트 포워딩을 했었습니다.이렇게 1년간 주먹 구구식으로 사용만 했다가 이번 파트인 네트워크 강의를 듣게 되었는데 본질적으로 '네트워크'라는 개념을 어떻게 사용하는거지 ? 라는 생각이 들었습니다. 컨테이너를 구축할 때 마다 -p 옵션을 강제하도록 하면 네트워크라는 개념이 필요가 없지 않나..(?)라는..그래서 혹시 이런 네트워크의 개념이 필요한 예시나 이후 더 고도화된 기술스택에 사용되는 내용을 알수 있을까요 ?(혼자 생각해본 결과 컨테이너간 통신을 하면 안되는 상황 ? 에서 해당 네트워크 개념을 사용해야할꺼 같긴한데 굳이 왜 그런 상황이 생기는 지 또한 의문입니다 !!)
-
미해결실습으로 배우는 선착순 이벤트 시스템
docker compose up 실행 오류
version: '2' services: zookeeper: image: wurstmeister/zookeeper container_name: zookeeper ports: - "2181:2181" kafka: image: wurstmeister/kafka:2.12-2.5.0 container_name: kafka ports: - "9092:9092" environment: KAFKA_ADVERTISED_HOST_NAME: 127.0.0.1 KAFKA_ZOOKEEPER_CONNECT: zookeeper:2181 volumes: - /var/run/docker.sock:/var/run/docker.sock 강의자료 내용대로 작성하고 실행했는데 다음과 같은 오류가 계속 발생하는데 원인을 모르겠습니다. 도커 로그인을 했는데도 계속 발생하네요. 오류 원인이 뭘까요? $ docker-compose up -d kafka Pulling zookeeper Pulling kafka Error zookeeper ErrorError response from daemon: pull access denied for wurstmeister/kafka, repository does not exist or may require 'docker login': denied: requested access to the resource is denied
-
해결됨개발자를 위한 쉬운 도커
컨테이너 커널 관련 질문
안녕하세요.컨테이너 커널 관련한 질문입니다.하이퍼바이져와 컨테이너를 비교하신 설명을 듣다가 문의드릴게 있어 이렇게 글 남깁니다.컨테이너는 호스트 os의 커널을 공유하기 때문에 vm에 이기종 os를 구성하는 것처럼 다른 os 이미지로 컨테이너를 만들 수 없다. --> 여기서 질문 드릴게 있습니다.컨테이너는 호스트 os의 커널과는 별개로 자체 커널을 보유하고 있지 않다가 맞는거죠 ?nginx 이미지를 도커 허브에서 다운 받아서 컨테이너를 실행한 다음 해당 컨테이너에 쉘 환경으로 접속해 확인해보면 호스트 os의 환경과는 구성이 다르던데, 그렇다면 이건 nginx 이미지를 다운 받을 때 nginx가 설치되고 구성된 리눅스 OS 환경도 같이 다운을 받는건가요 ?(nginx 프로그램만 다운을 받는다고 해서 동작이 안될꺼고, nginx 서버가 구성이 되어야 동작이 될텐데, nginx 이미지만 받았지 프로그램이 설치되고 구성되는 OS에 대한 설정은 해준게 없어서요. 물론 예를 들어 우분투 이미지를 다운 받고 여기서 nginx 구성을 자체적으로 해주어도 되고, 도커파일로 이미지를 빌드해줘도 되지만 nginx 이미지만 다운 받는데 어떻게 제 호스트 os가 뭔지 알고 그에 맞춘 이미지 파일을 다운받을 수 있을까요 ?)ec2를 활용한다고 가정할 떄 ec2의 AMI는 아마존 리눅스를 사용하고 도커 이미지는 우분투 이미지를 다운받아 컨테이너를 실행한다면, 이 떄에는 아마존 리눅스의 커널과 우분투 커널이 100% 일치하지 않을 텐데 이런 건 어떻게 동작이 되나요 ? 감사합니다.
-
해결됨개발자를 위한 쉬운 도커
Leafy 네트워크 질문이 있습니다.
수강 중에 개인적인 궁금증이 생겨 질문드립니다.Leafy 애플리케이션에서 네트워크를 새롭게 만든 주요 이유가 기본 네트워크에서는 DNS 기능을 제공하지 않기 때문에 즉, 컨테이너가 종료되고 다시 실행될 때 IP가 바뀌게 되어 DB로 연결이 안되는 상황이 발생할수 있다고 하셨습니다.그렇다면 백엔드 에서 DB 호스트 URL을 localhost로 연결을 하면 굳이 DNS 기능을 사용 하지 않아도 될꺼같다는 생각이 듭니다. 예를 들어 EC2 서버 하나에 실습 서버인 백/프론트/DB 컨테이너를 띄울 경우 입니다 !혹시 각각 다른 EC2 서버 3대에 각각의 컨테이너를 띄워 배포하는 경우에는 DNS 기능이 필요하니 이럴 때를 위해 네트워크를 생성해서 세팅을 해야 할까요 ?
-
해결됨개발자를 위한 쉬운 도커
안녕하세요 선생님, 5강까지 수강한 시점에서 질문드리고 싶습니다.
안녕하세요 선생님, 현재 선생님께서 예제로 올려주신 파일이 아닌 제 프로젝트에 적용하며 수강하고 있는 학생입니다.도커 이미지를 빌드할 때 멀티 스테이징 기법을 사용하는 이유는 빌드할 때 사용하는 모듈들이 애플리케이션을 실행할 때 사용하는 환경에서는 필요없기 때문에 빌드 이미지와 실행 이미지를 나누어 최종적으로 빌드되는 실행 이미지에서 gradle과 같은 무거운 부분들을 떼내기 위해서라고 이해하였습니다.만약 그렇다면 최종적인 이미지에는 yml에 들어있는 private key같은 보안값들이 들어있지 않는 것으로 이해되는데, yml이 최종 이미지에 들어있지 않음에도 보안값들을 환경변수로 전달해야 하는 이유를 알고 싶습니다.원래 추후 git actions등을 사용하여 깃허브에 push만 하면 자동으로 빌드 후 배포까지 되게끔 파이프라인을 구축할 때 깃허브에는 yml이 올라가있지 않기 때문에 깃허브에는 환경변수를 사용한 yml을 올려두고 강의내용대로 환경변수로 전달하는 과정까지 자동화하는구나 라고 이해하였는데, ChatGPT에서는 멀티스테이징 기법을 사용하더라도 이미지 빌드과정 자체에서 yml을 포함하지 않아야 보안상에 문제가 없다고 하여 질문드립니다.추가적으로 차후 강의를 들으면 해결될 궁금증 같지만, 현재 제 프로젝트에는 프론트엔드는 다른 VM을 통한 서버가 올라가있고, 데이터베이스 또한 따로 RDS에 올라가있는데 이럴 때는 간단히 스프링 애플리케이션만 이미지로 빌드하여 서버 VM(EC2)에 배포하고, 수작업으로 https 프로토콜 인증 작업만 진행하면 되는지 또한 여쭤보고 싶습니다.친절한 강의 해주셔서 감사합니다.
-
미해결그림으로 배우는 쿠버네티스(v1.30) - {{ x86-64, arm64 }}
8.6.네트워크 정책 (NetworkPolicy)에서 NetworkPolicy-ipBlock-except.yaml에 대한 질문
안녕하세요.NetworkPolicy-ipBlock-except.yaml 파일을 [root@m-k8s 8.6]# cat 3-3-NetworkPolicy-ipBlock-except.yaml apiVersion: networking.k8s.io/v1 kind: NetworkPolicy metadata: name: networkpolicy-ipblock-except namespace: default spec: podSelector: {} policyTypes: - Ingress - Egress ingress: - from: - ipBlock: cidr: 172.16.0.0/16 # change your CIDR to shut it down except: - 172.16.132.0/24 egress: - to: - ipBlock: cidr: 172.16.0.0/16 # change your CIDR to shut it down except: - 172.16.132.0/24위와 같이 설정 후,[root@m-k8s 8.6]# k apply -f 3-3-NetworkPolicy-ipBlock-except.yaml networkpolicy.networking.k8s.io/networkpolicy-ipblock-except created [root@m-k8s 8.6]# k get po -o wide | grep deploy-ipblock-ddb5f6ff9 deploy-ipblock-ddb5f6ff9-klkkj 1/1 Running 0 20s 172.16.103.150 w2-k8s <none> <none> deploy-ipblock-ddb5f6ff9-l7fdx 1/1 Running 0 20s 172.16.132.37 w3-k8s <none> <none> deploy-ipblock-ddb5f6ff9-q4r7m 1/1 Running 0 20s 172.16.221.154 w1-k8s <none> <none> [root@m-k8s 8.6]# k exec net -it -- /bin/bash [root@net /]# ping 172.16.103.150 PING 172.16.103.150 (172.16.103.150): 56 data bytes ^C --- 172.16.103.150 ping statistics --- 5 packets transmitted, 0 packets received, 100% packet loss [root@net /]# ping 172.16.132.37 PING 172.16.132.37 (172.16.132.37): 56 data bytes ^C --- 172.16.132.37 ping statistics --- 5 packets transmitted, 0 packets received, 100% packet loss [root@net /]# ping 172.16.221.154 PING 172.16.221.154 (172.16.221.154): 56 data bytes ^C --- 172.16.221.154 ping statistics --- 4 packets transmitted, 0 packets received, 100% packet loss ping을 보낼 시, 강의에서는 w3-k8s에만 ping이 안가야 정상이고 나머지 (w1-k8s / w2-k8s)에는 ping이 가야하지만 NetworkPolicy-ipBlock-except.yaml 적용 시, 어떠한 노드에도 핑이 가지 않습니다. yaml 파일에서도 except를 172.16.132.0/24로 주었지만 되지 않습니다.해당 IP 대역만 제외했는데 왜 다른 대역도 먹통이 되는지 이해가 안됩니다 ㅠㅠ(NetworkPolicy-ipBlock-except.yaml 해제하면 모든 노드에 ping이 감)
-
미해결쉽게 시작하는 쿠버네티스(v1.30) - {{ x86-64, arm64 }}
worker node 이미지가 한개 부족합니다
[질문 하기]vagrant 로 설정이 어려워 이미지를 다운받기 위해 OneDrive 를 접속하였을때 아래와 같이 worker node 가 하나 부족하여 문의 드립니다
-
미해결AWS 배포 완벽가이드 (feat. Lightsail, Docker, ECS)
자바 스프링 개발자입니다.
안녕하세요. 강의 너무 잘듣고있습니다. node 기반의 강의이기에 pm2 등의 내용을 듣고있던 중, 궁금한 부분이 있어 문의드립니다.1개의 vm에서 pm2을 사용하여 nodejs app을 2개를 올리고 있습니다. 제 생각에는 nodejs가 싱글스레드여서 vm의 cpu 개수만큼 사용하기 위해서 app을 여러 개를 띄운다로 이해하였습니다. 맞을까요?맞다면, 스프링의 경우에는 멀티스레드로 제공하기 때문에 위와 같이 1개의 vm에 여러개의 app을 띄울 필요가 없이 1개의 vm에 1개의 app만 띄우면 위와 같은 동작을 기대할 수 있다고 생각했습니다. 맞을까요?1개의 vm에서 여러 개의 스프링부트 app을 띄워야한다면 pm2와 같은게 필요한거 같은데, 스프링에서 pm2와 같은게 있을까요?노드 기반 강의이기에 조금 아쉬운 부분은 있지만, 강의 재밌게 듣고있습니다. 감사합니다!
-
해결됨개발자를 위한 쉬운 도커
WSL 도커 컨테이너 개발 오류
도커 데스크탑 대신 wsl에 도커 엔진을 설치해서 사용중입니다.윈도우에서 devcontainer 설정을 하고 개발 컨테이너 폴더 열기를 했을 때 아래와 같이 에러가 발생하는데, 혹시 path를 C:/Users/... 대신 /mnt/c/Users/...로 수정할 수 있는 방법이 있을까요?ERROR: unable to prepare context: path "c:Usersc...기타경로" not found
-
미해결실습으로 배우는 선착순 이벤트 시스템
consumer 셋팅 숫자 출력이 안됩니다.
docker exec -it kafka kafka-console-consumer.sh --topic coupon_create --bootstrap-server localhost:9092 --key-deserializer "org.apache.kafka.common.serialization.StringDeserializer" --value-deserializer "org.apache.kafka.common.serialization.LongDeserializer"라고 터미너에 입력한 후에 테스트 코드package com.example.coupon_server.service; import com.example.coupon_server.repository.CouponRepository; import org.junit.jupiter.api.DisplayName; import org.junit.jupiter.api.Test; import org.springframework.beans.factory.annotation.Autowired; import org.springframework.boot.test.context.SpringBootTest; import java.util.concurrent.CountDownLatch; import java.util.concurrent.ExecutorService; import java.util.concurrent.Executors; import static org.assertj.core.api.AssertionsForClassTypes.assertThat; @SpringBootTest public class ApplyServiceTest { @Autowired private ApplyService applyService; @Autowired private CouponRepository couponRepository; @Test @DisplayName("쿠폰 한개 적용 테스트") public void applyOneCoupon() { applyService.applyCoupon(1L); long count = couponRepository.count(); assertThat(count).isEqualTo(1); } @Test @DisplayName("쿠폰 여러개 적용 테스트") public void applyMultiCoupon() throws InterruptedException { int threadCount = 1000; ExecutorService executorService = Executors.newFixedThreadPool(32); CountDownLatch latch = new CountDownLatch(threadCount); for (int i = 0; i < threadCount; i++) { long userId = i; executorService.submit(() -> { try { applyService.applyCoupon(userId); } finally { latch.countDown(); } }); } latch.await(); Thread.sleep(10000); long count = couponRepository.count(); assertThat(count).isEqualTo(100); } @Test @DisplayName("한명당 한개의 쿠폰만 발급") public void applyOneCouponPerUser() throws InterruptedException { int threadCount = 1000; ExecutorService executorService = Executors.newFixedThreadPool(32); CountDownLatch latch = new CountDownLatch(threadCount); for (int i = 0; i < threadCount; i++) { long userId = i; executorService.submit(() -> { try { applyService.applyCoupon(1L); } finally { latch.countDown(); } }); } latch.await(); Thread.sleep(10000); long count = couponRepository.count(); assertThat(count).isEqualTo(1); } }로 작성했지만 터미널에서 강사님과 같이 숫자들이 찍히자 않습니다.그리고 터미널 안의 글씨 너무 작은것 같아요
-
미해결실습으로 배우는 선착순 이벤트 시스템
멀티 모듈
프로젝트 나누신것 같은데그냥 최상단 경로에서 프로젝트 하나 더 생성하고 난뒤에최상단에서 열면 되는건가요 ?
-
해결됨[코드캠프] 부트캠프에서 만든 고농축 백엔드 코스
docker
Access denied for user 'root'@'localhost' (using password: YES) my-backend-1 | Error: connect ECONNREFUSED 172.18.0.2:3306my-backend-1 | at TCPConnectWrap.afterConnect [as oncomplete] (node:net:1487:16)my-database-1 | '/var/lib/mysql/mysql.sock' -> '/var/run/mysqld/mysqld.sock'my-backend-1 | [Nest] 42 - 05/02/2024, 6:41:50 PM ERROR [TypeOrmModule] Unable to connect to the database. Retrying (2)...my-backend-1 | Error: connect ECONNREFUSED 172.18.0.2:3306my-backend-1 | at TCPConnectWrap.afterConnect [as oncomplete] (node:net:1487:16)my-database-1 | 2024-05-02T18:41:49.714242Z 0 [System] [MY-015015] [Server] MySQL Server - start.my-database-1 | 2024-05-02T18:41:50.845054Z 0 [System] [MY-010116] [Server] /usr/sbin/mysqld (mysqld 8.4.0) starting as process 1my-database-1 | 2024-05-02T18:41:50.991351Z 1 [System] [MY-013576] [InnoDB] InnoDB initialization has started.my-database-1 | 2024-05-02T18:41:51.037335Z 1 [ERROR] [MY-012585] [InnoDB] Linux Native AIO interface is not supported on this platform. Please check your OS documentation and install appropriate binary of InnoDB.my-database-1 | 2024-05-02T18:41:51.037785Z 1 [Warning] [MY-012654] [InnoDB] Linux Native AIO disabled.my-database-1 | 2024-05-02T18:41:51.786685Z 1 [System] [MY-013577] [InnoDB] InnoDB initialization has ended.my-backend-1 | [Nest] 42 - 05/02/2024, 6:41:53 PM ERROR [TypeOrmModule] Unable to connect to the database. Retrying (3)...my-backend-1 | Error: connect ECONNREFUSED 172.18.0.2:3306my-backend-1 | at TCPConnectWrap.afterConnect [as oncomplete] (node:net:1487:16)my-database-1 | 2024-05-02T18:41:53.236794Z 0 [Warning] [MY-010068] [Server] CA certificate ca.pem is self signed.my-database-1 | 2024-05-02T18:41:53.237258Z 0 [System] [MY-013602] [Server] Channel mysql_main configured to support TLS. Encrypted connections are now supported for this channel.my-database-1 | 2024-05-02T18:41:53.247163Z 0 [Warning] [MY-011810] [Server] Insecure configuration for --pid-file: Location '/var/run/mysqld' in the path is accessible to all OS users. Consider choosing a different directory.my-database-1 | 2024-05-02T18:41:53.454585Z 0 [System] [MY-010931] [Server] /usr/sbin/mysqld: ready for connections. Version: '8.4.0' socket: '/var/run/mysqld/mysqld.sock' port: 3306 MySQL Community Server - GPL.my-database-1 | 2024-05-02T18:41:53.793849Z 0 [System] [MY-011323] [Server] X Plugin ready for connections. Bind-address: '::' port: 33060, socket: /var/run/mysqld/mysqlx.sockmy-backend-1 | query: SELECT VERSION() AS versionmy-backend-1 | query: START TRANSACTIONmy-backend-1 | query: SELECT DATABASE() AS db_namemy-backend-1 | query: SELECT TABLE_SCHEMA, TABLE_NAME, TABLE_COMMENT FROM INFORMATION_SCHEMA.`TABLES` WHERE TABLE_SCHEMA = 'mydocker' AND TABLE_NAME = 'board'my-backend-1 | query: SELECT * FROM INFORMATION_SCHEMA.`COLUMNS` WHERE TABLE_SCHEMA = 'mydocker' AND TABLE_NAME = 'typeorm_metadata'my-backend-1 | query: CREATE TABLE board (`number` int NOT NULL AUTO_INCREMENT, writer varchar(255) NOT NULL, title varchar(255) NOT NULL, contents varchar(255) NOT NULL, PRIMARY KEY (`number`)) ENGINE=InnoDBmy-backend-1 | query: COMMITmy-backend-1 | [Nest] 42 - 05/02/2024, 6:41:56 PM LOG [InstanceLoader] TypeOrmCoreModule dependencies initialized +3294msmy-backend-1 | [Nest] 42 - 05/02/2024, 6:41:56 PM LOG [GraphQLModule] Mapped {/graphql, POST} route +68msmy-backend-1 | [Nest] 42 - 05/02/2024, 6:41:56 PM LOG [NestApplication] Nest application successfully started +3ms 안되네요??
-
미해결대세는 쿠버네티스 [초급~중급]
[Mac] dashboard에서 pod 등록 시, 에러
실습 자료실의 1.27v 기준으로 전부 세팅 완료했는데Dashboard에서 Pod를 등록할 때 다음과 같은 에러가 발생합니다. 토큰은 cat ~/join.sh 에 있는 토큰값으로 대시보드에 접근했습니다. 왜 이럴까요..?
-
미해결멀티OS 사용을 위한 가상화 환경 구축 가이드 (Docker + Kubernetes)
apt-get update 명령어 오류
쿠버네티스 섹션에서 apt-get update 명령어를 입력하면 404오류가 발생하는데 원인이 뭔지 알수 있을까요?