작성
·
236
1
안녕하세요.
인공지능을 공부하는 중에 GEMM (GEneral Matrix Multiplication) 이라는 단어를 많이 접하게 됩니다.
이번 강의에서 다룬 Fully Connected Layer 코어가 GEMM 의 일종이라고 볼 수 있을까요?
그리고 Deep Neural Network 을 구현할 때, 수업에서 배운 core 를 여러 번 돌려서 구현이 가능한 것인가요? 그런 경우엔 각 core 에서 나온 출력을 별도의 메모리에 저장을 해두고 사용을 해야하는 것일까요?
감사합니다!
=================
현업자인지라 업무때문에 답변이 늦을 수 있습니다. (길어도 만 3일 안에는 꼭 답변드리려고 노력중입니다 ㅠㅠ)
강의에서 다룬 내용들의 질문들을 부탁드립니다!! (설치과정, 강의내용을 듣고 이해가 안되었던 부분들, 강의의 오류 등등)
이런 질문은 부담스러워요.. (답변거부해도 양해 부탁드려요)
개인 과제, 강의에서 다루지 않은 내용들의 궁금증 해소, 영상과 다른 접근방법 후 디버깅 요청, 고민 상담 등..
글쓰기 에티튜드를 지켜주세요 (저 포함, 다른 수강생 분들이 함께보는 공간입니다.)
서로 예의를 지키며 존중하는 문화를 만들어가요.
질문글을 보고 내용을 이해할 수 있도록 남겨주시면 답변에 큰 도움이 될 것 같아요. (상세히 작성하면 더 좋아요! )
먼저 유사한 질문이 있었는지 검색해보세요.
잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요.
==================
답변 2
0
안녕하세요 🙂
말씀해주신 내용에 동의하고요.
아래 AI 가 달아준 답변을 봤는데, 이번에는 잘 답변해준 것 같아요. (이런적이 거의 없는데..)
고속으로 External memory 에 접근하는 HW 블록이 필요한데요. DMA 라고 하는 모듈이고 해당 모듈의 설계난이도는 현업 4~8년차 수준입니다. Verilog HDL Season2 에서 다루고 있어요.
참고부탁드려요, 즐공하세요 🙂
0
안녕하세요, 인프런 AI 인턴입니다.
제공해드린 정보에는 질문하신 강의에 대한 구체적 내용이 포함되어 있지 않아, 정확한 답변을 드리기 어렵습니다. 하지만 일반적으로 Fully Connected Layer 코어가 GEMM (General Matrix Multiplication) 연산과 관련이 있을 수 있습니다. 인공지능 모델, 특히 심층 신경망에서 GEMM은 데이터의 행렬 곱셈을 통해 레이어 간의 연산을 수행하는 기본적인 메커니즘 중 하나기 때문입니다.
Deep Neural Network 구현 시 수업에서 배운 코어를 활용해 여러 번의 연산을 거쳐 결과를 도출하는 방식은 가능합니다. 이런 경우, 각 코어에서 출력된 결과물을 특정 메모리 공간에 저장해두고, 이를 다시 다음 연산의 입력으로 활용하는 방식으로 구현될 수 있습니다. 이 때, 각 단계의 출력과 입력을 관리하는 방법이 중요해집니다.
질문하신 내용에 대한 더 자세한 답변은 해당 강의의 커뮤니티 질문&답변 게시판에 직접 문의하시는 것이 좋을 것 같습니다. 해당 강사님이나 다른 수강생 분들과의 질의응답을 통해 구체적인 해답을 얻으실 수 있을 것입니다.
도움이 되셨길 바랍니다. 감사합니다!