자연어처리(NLP) 그리고 그 중심에 있는 거대언어모델(LLM)을 둘러싼 업계 및 학계의 다양한 경험담과 생각들을 공유한 <Langcon2024>! 그 생생한 발표현장을 공유합니다
이런 분들께 추천해요
✅ 자연어처리(NLP)에 관심있는 분
✅ 인공지능 분야 현장의 목소리를 듣고 싶은 분
✅ 초거대 언어 모델 튜닝에 대한 이해가 필요한 분
컨퍼런스 발표 주제
1) LLM을 활용한 나만의 검색 만들기
내가 원하는 정보를 찾고, 답변해주는 나를 위한 인공지능 서비스(GPTs)를 만들기 위해서는 어떻게 해야할까요? 서버연결, 데이터 저장, Google API를 활용한 검색기능 추가 등 LLM을 활용하여 나만의 서비스를 만들었던 일련의 과정을 공유합니다.
2) 영어 잘하는 모델을 한국어 잘하는 모델로 바꾸는 레시피
영어모델에 한국어를 얹으면 성능의 한계가 발생합니다. 혹은 '한국어만' 잘하게 되는 문제가 생기기도 합니다. 이러한 문제를 극복하기 위한 새롭게 적용했던 모델(KoMistLlama-Pro-9B)을 공유합니다. 또한 LLM 학습을 위한 프레임워크 EasyLM의 특징과 기능을 소개합니다.
3) 진짜 사용자와 함께 진화하는 Agent 운영기
형광펜 유틸리티로 시작하여 사용자를 돕는 에이전트로 서비스를 발전시켜 나가고 있는 스타트업 라이너! 이번 발표에서는 라이너(Liner)의 Agent기반 프로덕트를 1년 여간 운영하며 얻은 배움과 노하우, Data Flywheel 구축을 향한 여정을 다룹니다.
4) 당신의 인공지능 저작권은 안녕하십니까?
대규모 언어 모델(LLM) 시대의 개막과 함께 저작권 문제가 화두로 떠오르고 있습니다. 이번 발표에서는 LLM 모델에서 데이터 수집과 학습, 그리고 모델이 생성한 결과물에 대한 저작권 이슈를 다루고, 이러한 모델의 다양한 라이선스와 상업적 이용 가능성을 알아보고 함께 살펴봅니다.
5) 더 빠른 대규모 벡터 연산을 위해 FPGA를 이용해 가속을 해볼까?
RAG와 같은 고급 문서처리 기법들이 주목을 받으면서 Vector DB (VDB)의 중요성도 날로 커지고 있지만, 아직 여러가지 기술적 난관에 부딪히고 있는 것이 현실입니다. Sionic AI는 MetisX와의 협업으로 FPGA 가속을 통하여 벡터 연산의 최적화 방법을 찾아가고 있으며, 이번 발표를 통해 그 기술적 청사진을 제시하고자 합니다.
자연어처리 모임 Langcon2024의 발표 자료 및 영상은 다음 링크에서도 참고하실 수 있습니다.