메이드 인 RAG(로컬 LLM QA시스템) With Docker + ollama + R2R
코점스튜디오
Docker + ollama + R2R 프레임워크를 이용해서 실습 2시간만에 로컬 LLM with RAG기반 QA 시스템을 구축합니다. (사내/인하우스 QA 시스템, 개인 포트폴리오, AI 활용 업무능력, 상용서비스까지 가능합니다)
초급
Docker, 인공지능(AI), wsl
LLM 최신 연구동향과 기술 적용방안
LLM 활용 및 튜닝 사례
학습 대상은
누구일까요?
LLM 트렌드를 알고 싶은 분
LLM관련 업계 및 학계의 다양한 생각이 궁금한 분
선수 지식,
필요할까요?
딥러닝, 머신러닝 기초지식
전체
5개 ∙ (1시간 57분)
해당 강의에서 제공:
전체
1개
같은 분야의 다른 강의를 만나보세요!
무료