작성
·
335
0
답변 1
0
안녕하십니까,
음, 제가 H/W 전문가가 아니어서 어떤 GPU H/W를 추천 드려야 할지 잘 모르겠습니다. 잘은 모르지만 p100 정도의 성능을 가진 GPU 서버를 구축하려면 적어도 800~1000 만원대 비용이 소모되는 걸로 알고 있습니다.
1. 공식적으로는 AMD에서도 Tensorflow, Pytorch 모두 다 잘 동작합니다. 근데 대부분 GPU 서버들이 CPU는 인텔을 사용하는 것으로 알고 있습니다.
2. 3070 그래픽 카드를 사용해본적은 없는데, FLOPS 스펙으로 봤을 때는 P100보다 학습이 많이 느릴 것 같습니다. 적어도 3~4배 이상 학습 시간이 더 걸릴 것 같습니다. 메모리는 16G 이상 권장드립니다. 작으면 현재 실습 예제 수행시 오류가 날 수 있습니다. (BATCH SIZE를 더 줄이면 오류를 예방할 수는 있지만, 학습 시간이 더 걸립니다)
3. 딥러닝을 하려면 GPU와 연동할 수 있는 CUDA/CUDNN 라이브러리 설치가 필요한데, 이게 윈도우에서 까탈스럽습니다. 그리고 Tensorflow, pytorch-> cuda/cudnn-> GPU로 이어지는 호환버전 설치및 전반적인 Setup이 만만치 않습니다. 가급적이면 Linux VM 활용을 권장드립니다.(Linux에서 Cuda/cudnn 설치도 만만치 않지만 윈도우 보다는 편리합니다)
개인적인 생각으로는 연구비가 할당되었으니, 괜찮은 Workstation 200만원 정도로 장만해서 일반적인 용도로 사용하시고, 나머지 200만원으로 Google Cloud나 AWS에서 Cloud로 GPU 서버를 사용하시는건 어떨까 싶습니다. 물론 연구비가 한번에 금액이 떨어지는 거라, 이런 용도로 가능할지는 모르겠지만, 전문적인 딥러닝 연구를 위해서라면 400만원 정도의 GPU 서버로는 활용에 어려움이 있습니다.