주요 경력
(현) 국내 IT 대기업 AI Research Engineer
(전) AI 스타트업 AI Research Engineer
AI 연구/개발 이력
다수의 AI 프로젝트 진행 및 AI 프로덕트 출시 경험
다수의 AI 연구 및 Top-Tier Conference 논문 게재 경험
Generative AI 전문가
기타 이력
국내 학회 인공지능 세션 튜토리얼 강사
국내 대기업 AI 강의 초빙 강사
사내 생성 AI 세미나 강사
강의
로드맵
전체 1수강평
- [AI 실무] AI Research Engineer를 위한 논문 구현 시작하기 with PyTorch
- [AI 실무] AI Research Engineer를 위한 논문 구현 시작하기 with PyTorch
- [AI 실무] AI Research Engineer를 위한 논문 구현 시작하기 with PyTorch
- [AI 실무] AI Research Engineer를 위한 논문 구현 시작하기 with PyTorch
- [AI 기초] AI Research Engineer를 위한 CNN 이해하기
게시글
질문&답변
import 오류 관련
일반적으로 jupyter notebook과 python 파일이 같은 디렉토리에 있다면 해당 python 파일에 구현되어 class를 가져 올 수 있어야 합니다. (사진) ImportError가 발생하는 경우는간단하게 오타가 있는 경우(가령 class명이 StyleTransfer가 아니라 StyleTrnasfer)입니다.그것도 아니라면 jupyter notebook을 재시작해 보시길 바랍니다. (참고)만약 위 두가지로도 해결이 안된다면 가능한 경우 다른 환경에서도 테스트 해보시기 바랍니다. (가령 다른 컴퓨터)
- 0
- 2
- 23
질문&답변
pytorch 설치시 anaconda를 더이상 지원하지 않는다고 합니다.
네 pip로 설치하셔도 문제 없습니다. GPU버전을 설치하신다면 본인 GPU에 맞는 CUDA버전 설치를 따로 해줘야 한다는 번거로움이 있습니다만 CPU 버전은 상관 없습니다.그리고 PyTorch 2.6 버전부터 지원이 중단된터라 (ref. https://discuss.pytorch.kr/t/pytorch-2-6/6005?utm_source=chatgpt.com)이전 버전은 conda로 다운로드 가능해 보입니다. (ref. https://pytorch.org/get-started/previous-versions/)PyTorch 2.6 이전 버전을 사용하셔도 전혀 문제 없으니 2.6 이전버전을 conda로 install 하셔도 됩니다.
- 0
- 2
- 35
질문&답변
vgg19 입력 이미지의 width, height 에 관하여.
제가 질문 확인이 늦었네요 죄송합니다...질문자분 말씀대로 VGG19의 원래 설계는 ImageNet 데이터셋의 표준 크기인 224x224 이미지를 처리하도록 되어 있습니다. 하지만 저희의 목적은 classification이 아니기 때문에 이미지 사이즈는 바꿔도 상관 없습니다. 강의코드에서 512로 설정한 이유는 특별한 이유가 없습니다. 512x512의 이미지를 생성하는데 필요한 학습시간이 그렇게 길지 않고 이미지 사이즈도 육안으로 보았을때 해상도가 너무 낮지 않은 정도라 512로 택했습니다.224가 맞는것 아닌가에 대한 것은 굉장히 재밌는 접근이 필요한거 같습니다. 제가 새로운 논문을 쓴다고 했다면 224로 정했을거 같아요. reference한 논문에서 그렇게 실험을 했으니까요.하지만 제가 서비스를 한다고 하면 이미지 사이즈를 최대한 키울겁니다. 사람들이 보기엔 224는 해상도가 너무 낮기 때문이죠.
- 0
- 2
- 50
질문&답변
Loss (4) 강의 마지막 부분 jupyter notebook 재시작 관련 질문
jupyter notebook에서는 재시작 하기 전까지 import된 패키지가 업데이트 되지 않습니다. 해당 블록을 재실행 해도 업데이트가 되지 않습니다. 이는 jupyter notebook이 import한 모듈을 캐싱해 두기 때문입니다.그래서 업데이트된 모듈을 다시 import 하기 위해 jupyter notebook을 재시작 했습니다.도움이 되셨길 바래요.
- 1
- 2
- 48
질문&답변
loss.py 와 train.py 역할 명료화
두 가지 접근 방식 모두 유효하며, 어떤 방식이 "일반적"이라고 말하기는 어렵습니다. 둘다 장단점이 있는데요, train.py에서 total loss를 사용하는경우초기 실험 단계에서는 loss 조합을 바꿔 보기도 하고(e.g. StyleLoss만 사용한다거나) 하이퍼 파라미터를 하드코딩으로 바꿔보기도 하기 때문에 클래스로 캡슐라이징 하는것 보다 train.py에서 하드코딩하는게 초기 실험 단계에선 더 편한것 같습니다.class로 캡슐라이징 하는 경우캡슐라이징 하는 시점에서 이미 구조는 정해진것이나 다름 없습니다. 실험이나 학습을 반복적으로 돌려야 하는 경우는 이 방법이 실험을 관리하기 더 편할수 있습니다. 코딩 스타일에 따라도 달라질수 있어서 상황에 맞게 선택 하면 될것 같습니다. 개인적으로 코딩에는 오답은 있지만 정답은 없다고 생각합니다.
- 0
- 2
- 54
질문&답변
논문구현 강의수강 관련
안녕하세요,제 논문구현 강의는 기능 구현을 파일별로 쪼개서 프로젝트를 수행하듯 진행하기에 코랩을 사용하면 이런 패키지 관리를 하기가 어렵습니다. (논문 구현의 흐름을 따라가는것 자체에는 큰 문제가 없습니다.)이부분이 어느정도 익숙하다면 사실 큰 문제가 되지 않지만 이런 부분도 코랩으로 챙겨가고 싶다고 하실때 차안이 있습니다.1. 코랩을 사용하지 않고 진행 -> 이경우 CPU버전으로 논문구현을 진행하게 되고 학습 속도가 많이 느려서 결과 보기 어려우실수도 있습니다.2. 코랩을 사용하여 진행(GPU) -> 이 경우 제 코드에서 train.py만 train.ipynb 버전으로 만드는등 코랩에서 진행 하면 됩니다. 나머지는 똑같이 패키지 형식 (e.g. *.py)으로 두고 import 해서 사용 하시면 됩니다.
- 0
- 2
- 66
질문&답변
gpu설정
PyTorch GPU를 지원하는 엔비디아 GPU가 없으면 PTorch GPU를 사용할수 없습니다.Intel GPU를 가속 시키는 PyTorch 기능이 있는것으로 아는데 (e.g. dpcpp) 해당 환경을 구축 하시는데 너무 많은 시간을 투자 하는것은 추천 하지 않습니다.
- 0
- 1
- 150