작성
·
35
1
안녕하세요 다니엘 선생님, 좋은 설명해주셔서 수업을 즐겁게 다 들을 수 있었습니다. 수업을 마치며, 한가지 궁금한 점이 있어 질문 드립니다.
도커를 배우기 전 윈도우 운영체제에서 CUDA와 tensorflow를 설치하는 데 고생했던 기억이 있습니다. 자신의 GPU에 맞는 그래픽 드라이버와 이에 호환되는 CUDA버전, cudnn 버전을 맞춰야 하는게 그 이유였는데, 도커에서 이미지로 빌드한 컨테이너 안에서 돌린 keras예제는 잘 실행되었습니다. pytorch도 마찬가지였습니다. 어떻게 따로 버전을 맞추지 않아도 자연스럽게 환경이 맞춰진건가요? VM에서 사용된 Tesla T4 gpu가 특이한건가요?
전공자가 아니라 질문이 황당하게 느껴지실 수도 있겠지만, 정말 궁금해서 여쭤봅니다!
답변 2
0
안녕하세요!
먼저 답변이 늦어져서 너무 죄송합니다. 최근에 본의 아니게 꽤 큰 프로젝트의 리더로 선임이 되었습니다. 당분간 주말을 포함하여 좀 정신 없이 보냈습니다.
우선 질문하신 내용은 전혀 황당하거나 비전공자의 질문이 아니고 아주 좋은 질문입니다. 그리고 제가 이미 이전에 공부하면서 스스로 가졌던 궁금중이기도 합니다.
버전을 맞추지 않는 것이 아니고 크게 질문하신 내용이 가능한 이유로는 아래와 같이 2가지의 이유가 있습니다.
첫 번째는 이미 kaggle gpu 도커 이미지가 NVidia의 이미지를 바탕으로 하고 있기 때문입니다.
두 번째는 수업에서 강조한 내용인데 도커 자체가 리눅스 컴퓨터라고 설명을 드렸고 커맨드 들이 (예를 들어 RUN) 리눅스 커맨드를 바탕으로 하고 있습니다. 그래서 도커는 굉장히 다이나믹하게 작동합니다. 예를 들어 리눅스 버전을 확인하거나 아니면 드라이버 버전을 확인해서 가장 적합한 추가적인 환경을 다이나믹하게 만들어 냅니다.
좀 더 추가적으로 설명을 드리고 싶은데 글로 길게 하는 것 보다는 제가 연락처를 강의 자료에 남겨 두었으니 편하게 연락 주세요. 한국 기준 금요일 밤 시간 등에 조금 시간을 잡아서 설명을 드리도록 하겠습니다.
좋은 하루 되세요.
다니엘 드림
0
안녕하세요, 인프런 AI 인턴입니다. dkdlscm123님.
도커 환경에서 CUDA와 같은 GPU 관련 설정이 보다 수월하게 진행된 부분에 대한 궁금증을 풀어드리겠습니다. 윈도우 등에서 직접 설치할 때 복잡했던 점들이 도커에서는 어떻게 해결되는지를 간단히 설명드립니다.
환경 일관성:
미리 구성된 이미지:
NVIDIA Docker 지원:
Tesla T4 GPU는 클라우드 환경에서 많이 사용되는 데이터 센터용 GPU입니다. 이러한 모델은 일반적으로 클라우드 서비스 제공자가 제공하는 커스텀 드라이버 세트를 통해 최적화된 상태로 제공됩니다. 이러한 이유로 도커와 더불어 Tesla T4를 사용하는 경우에는 드라이버 문제를 비교적 적게 경험할 수 있습니다.
이렇게 도커는 많은 수고를 줄일 수 있는 강력한 도구입니다. 질문하신 내용을 통해 더 알기 쉽게 도커의 이점을 활용하실 수 있기를 바랍니다!
저는 질문자님의 이해를 돕고자 지식공유자님의 기존 답변을 참고하여 유사한 답변 링크를 추천해드리고 있습니다. 현재 베타 기능으로 답변이 만족스럽지 않을 수 있는 점 양해 부탁드립니다. 🙏 추가적으로 궁금한 점이 있으시면, 이어서 질문해 주세요. 곧 지식공유자께서 답변해 주실 것입니다.