해결된 질문
작성
·
732
·
수정됨
0
안녕하세요? U-net 을 회귀문제에 활용하는 방안 관련 몇 가지 질문을 드리고자 합니다.
예를 들어 위 그림의 왼쪽과 같이 부재의 design 특징을 가지는 section image 와 속도 등의 value 를 input 을 받아서 오른쪽 그림과 같이 부재의 주변의 온도 프로파일을 예측하고자 한다면 (특정 design 에 대한 simulation 을 대체하는 딥러닝 모델을 구축해 보고자 하는 경우)
예를 들어 온도의 연속형 데이터를 급간을 만들어 범주형으로 변환한다면 본 강의의 예제 처럼 범주의 개수만큼 출력 layer 를 만들어 segmentation 문제로 정의 할 수 있을 것 같은데요,
질문1) 예를 들어 위 그림의 오른쪽 시뮬레이션 결과 이미지의 RGB 값을 학습용 label 데이터로 사용하는 것이 아닌, 해당 이미지의 좌표에 따른 온도 숫자 자체 value 들을 연속형 데이터로 받아서 output 이미지 픽셀값에 매핑시킨 2차원 데이터를 output 이미지(?) 로 사용한다면, 동일한 U net network 를 가지고 회귀문제로 예측 모델을 만드는 접근이 가능한 것인지 문의드립니다. (U-net 으로 회귀문제를 푸는 예제를 거의 찾아보지 못해서 질문 드립니다.)
이유는 온도 수치를 범주로 정의하게 되면 예측하고자 하는 수치 정보의 해상도를 낮추게 되어 오차를 만들어 낼 테니까.. 연속형 자료를 범주형 자료로 변환하는 과정에서 발생하는 오차를 원천적으로 없애고, 2차원 혹은 3차원에 존재하게 될 숫자 정보를 최대한 있는 그대로 예측하기 위함입니다.
질문2) 만약 위와 같이 Unet 의 출력 layer 를 segmentation (범주) 가 아닌 각 픽셀 위치당 숫자를 예측하는 회귀 문제를 예측할 수 있도록 재구성한다면, 출력 layer 를 구체적으로 어떻게 구성해야 하는지요? 단순히 최종 layer 의 Conv2D 의 activation = 'linear' 로 정의하면 될지요?
질문3) 이어지는 질문이지만 본 단원 강의 내용에서 이해해 보면 Unet 활용 시, 범주를 예측하는 segmentation 문제에서는 출력 layer 의 채널 수를 범주의 class 개수로 정의하는 듯 한데.... 픽셀 위치에 mapping 되는 value 값을 예측하는 회귀 문제로 접근하는 경우, 최종 Conv2D layer 의 채널 수를 어떻게 설정해야 하는는지.. 문의드립니다. (단순히 1채널로 정의하면 될지요?)
질문4) 2D 혹은 3D 이미지 혹은 모델링을 input 받아서 2D or 3D 공간상의 숫자들을 예측하는 딥러닝 모델을 구축한다면... u-net 이 최선일지.. 혹은 알고 계시거나 경험해 보신 다른 네트워크 모델이 있을지... 강사님의 고견을 듣고 싶습니다. ^^;;
답변 1
1
안녕하세요, 인프런 AI 인턴이에요.
질문 1) U-net을 이용하여 회귀 문제를 푸는 방법은 가능합니다. 예를 들어, RGB 값을 사용하는 대신에 숫자 값을 회귀 문제의 출력 값으로 사용하는 것이 가능합니다. 연속적인 데이터로 출력 값에 매핑시키는 것이 가능하며, 범주 형태로 정의할 경우 해상도를 낮출 수 있기 때문에 연속형 데이터로 매핑하는 것이 더 좋은 성능을 보일 가능성이 있습니다.
질문 2) U-net의 출력층을 회귀 문제에 맞게 재구성하려면 최종 출력 층의 Conv2D 활성 함수를 ‘linear’로 정의하면 됩니다.
질문 3) U-net을 회귀 문제로 바꾸는 경우 최종 Conv2D 층의 채널 수는 1로 정의해야 합니다. 그리고 U-net의 경우, 범주를 예측하는 경우 출력 층의 채널 수는 범주 클래스 수와 같게 정의합니다.
질문 4) 만약 2D 또는 3D 이미지 또는 모델링을 입력으로 받아 2D 또는 3D 공간상의 숫자를 예측하는 딥러닝 모델을 구축한다면, U-net이 최적의 선택지는 아닐 수 있습니다. 다른 모델들도 있다는 것은 사실이며, 각 문제에 맞게 적절한 모델을 선택해야 합니다. 하지만, U-net은 이미지 분할 문제에 대해서 많은 제안을하므로 비슷한 문제의 경우 U-net이 더 좋은 결과를 보일 수 있습니다.
소중한 질문을 해주셔서 감사합니다.
성실한 답변 감사드립니다 ^^