게시글
질문&답변
AI 에이전트를 위한 웹검색(Web search) Tool 에서 DuckDuckGoSearchRun 실행 관련..
안녕하세요~. 반갑습니다.먼저 수강에 불편을 드려서 죄송합니다.강의 영상 촬영시점 이후로 많은 시간이 흘러서 duckduckgo_search 라이브러리 버전 관련해서 문제가 발생한 것 같습니다.라이브러리 버전 문제를 해결한 아래 colab 링크로 실습진행 부탁드립니다. https://colab.research.google.com/drive/1Ij49jjpIHchUh2zkEvX9Y5h3M-Iu_Ol4?usp=sharing 참고자료 : https://github.com/deedy5/duckduckgo_search/issues/290 좋은 하루되세요~.감사합니다.
- 0
- 2
- 12
질문&답변
ReWoo 아키텍처에서는 RePlan이 필요없나요?
안녕하세요~. 반갑습니다.두 아키텍처의 컨셉이 다른 것 뿐입니다.1. plan-and-execute 아키텍처는 plan을 짜고 순차적으로 해결하는 구조를 취하겠다는 컨셉이기 때문에 plan 1개당 실행을 1번씩 점진적으로 실행해서 문제를 해결하는 형태이고2. ReWoo 아키텍처의 경우(ReWoo 아키텍처가 더 나중에 제안된 아키텍처입니다.) 기존 아키텍처와 달리 한번에 일괄처리하겠다는 컨셉(배치 처리)이기 때문에 처음 plan을 짤때 전체 plan들과 plan 별로 replace할 변수들(#E1, #E2, #E3, ...)을 만들고 replace할 변수들에 들어갈 값들을 찾은뒤에 일괄적으로 변수들을 변경해서 한번에 처리하는 배치 처리 컨셉을 취한 것입니다.즉 정리하면 목적은 같더라도 취하는 중간 과정의 접근법이 약간 다른 것입니다.아키텍처에 정답은 없고 원한다면 ReWoo 아키텍처도 기존 ReWoo 아키텍처에 재계획이 가능한 형태로 확장해서 사용할 수도 있습니다.좋은 하루되세요.감사합니다.
- 0
- 1
- 16
질문&답변
혹시 로컬llm을 활용해서 RAG를 구현하는 예제도 한번 올려주시면 안될까요?
안녕하세요~. 반갑습니다. ChatOllama 모듈을 이용해서 llama 모델을 연동해서 RAG를 구현하는 방법을 설명한 아래 문서와 소스코드를 참조하세요.https://langchain-ai.github.io/langgraph/tutorials/rag/langgraph_adaptive_rag_local/ 혹시 [모두를 위한 대규모 언어 모델 LLM Part 5 - LangGraph로 나만의 AI 에이전트 만들기] 강의도 수강하신다면 해당 강의에서 Llama 모델을 ollama로 연동하는 방법을 설명한 [Llama 모델을 이용해서 Adaptive RAG 시스템 만들기] 강의 영상을 참조하세요. 좋은 하루되세요~.감사합니다.
- 0
- 2
- 92
질문&답변
STORM 아키텍쳐
안녕하세요~. 반갑습니다.먼저 수강에 불편을 드려서 죄송하고 정보 공유 감사합니다~. 다른 분들도 참조하실수 있도록 2025년 1월 16일 기준으로 최신버전에 맞게 코드를 수정한 colab 링크도 아래에 첨부합니다.https://inf.run/S2BhG 좋은 하루되세요~.감사합니다.
- 0
- 2
- 62
질문&답변
"Plan-and-Execute 아키텍쳐 구현하기" 강의 prompt not found error
안녕하세요~. 반갑습니다.먼저 수강에 불편을 드려서 죄송하고 정보 공유 감사합니다~. 강의 촬영시점 이후로 시간이 흘러서 hub repo의 변화로 인해 에러가 발생한 것 같습니다.말씀해주신대로 hub.pull("pollyjaky/ih-react-agent-executor")로 변경해서 사용하셔도 되고, 아니면 아래와 같이 간단하게 그냥 직접 프롬프트를 설정해주어도 됩니다.from langchain import hub from langchain_openai import ChatOpenAI from langgraph.prebuilt import create_react_agent # Get the prompt to use - you can modify this! prompt = "You are a helpful assistant." # Choose the LLM that will drive the agent llm = ChatOpenAI(model="gpt-4o") agent_executor = create_react_agent(llm, tools, state_modifier=prompt)다른 분들도 참고하실 수 있도록 위와 같이 수정된 colab 링크를 아래에 첨부합니다. https://colab.research.google.com/drive/1EKu16O8r_9PQkg3TaaglQWiQxmI8gHEa?usp=sharing 좋은 하루되세요.감사합니다.
- 0
- 1
- 80
질문&답변
가중치에 대한 질문
안녕하세요~. 반갑습니다.1. 이 경우에는 어떤식으로 Concat이 되나요?-> 말그대로 각 scale-dot attention에서 출력된 벡터를 그냥 이어주는 concatenation 과정이 이루어지는 것입니다. 예를 들어 설명하면 아래와 같이 head1의 출력값과 head2의 출력값이 있다고 임의 가정하면 각 헤드들의 출력값을 그냥 하나로 길게 쭉이어주는 것입니다. (실제로 원 논문에서는 8개의 헤드를 사용합니다.)head 1: [1, 2, 3]head 2: [13, 14, 15]concat → [1, 2, 3, 13, 14, 15]2. 이렇게 Concat이 되게되면 값이 증폭하는 일이 생기지 않나요>? -> 값이 증폭한다는게 무슨 뜻인지 정확히 이해하지 못했지만 2개의 값을 더해줘서 값이 +되는 것 아니냐는 의미로 질문하신것이라면 위에 설명드린것처럼 값을 +하는 것이 아니라 뒤에 이어붙이는 것이기 때문에 값의 증폭이 이루어진다고 볼수는 없습니다. 또한 복잡한 transformer 구조에서 모든 부분이 학습가능한 weight이기 때문에 값이 너무 커질것 같으면 학습과정에서 weight들이 알아서 너무 값이 커지지 않게 조정하는 방향으로 파라미터를 변경합니다.좋은 하루되세요~. 감사합니다.
- 0
- 1
- 33
질문&답변
open api 이용 방법
안녕하세요~. 반갑습니다.OpenAI API 키 발급 관련해서는[섹션 10. OpenAI API를 통한 GPT Fine-Tuning] - [GPT-3.5 Turbo Fine-Tuning 실습 - 기초 예제로 OpenAI API를 통한 Fine-Tuning 프로세스를 익혀보자] 영상 앞부분에서 설정하는 방법에 관한 설명영상이 있습니다. 정확한 사용요금은 아래 문서를 참조하세요.https://platform.openai.com/docs/pricing좋은 하루되세요~.감사합니다.
- 0
- 2
- 89
질문&답변
Llama vision 이미지 해상도
안녕하세요~. 반갑습니다. Llama 3.2 vision 모델이 인식하기 위한 최소 이미지 사이즈는 특별히 언급된 내용이 없는 것 같습니다.최대 이미지 사이즈 같은 경우 1120x1120 사이즈 까지 지원하는 것으로 알려져 있습니다. colab에서 테스트해보시기가 어려우신 환경이실 경우huggingface에 로그인하신뒤에 https://huggingface.co/meta-llama/Llama-3.2-11B-Vision-Instruct위 링크로 Llama 3.2 vision instruct 모델 페이지에 접속하시면 우측에 [Inference Providers]라고 해당 부분에 이미지를 업로드하고 원하시는 프롬프트를 입력하셔서 테스트해보실 수 있는 환경을 제공하고 있으니 해당 방법으로 테스트해보시길 추천드립니다. (사진) 좋은 하루되세요~.감사합니다.
- 0
- 1
- 95
질문&답변
일부 교육 동영상 재생이 안됩니다
안녕하세요~. 반갑습니다.먼저 수강에 불편을 드려서 죄송합니다. 동영상 재생 문제 관련해서는 오른쪽 하단에 [문의하기] 버튼을 눌러서 인프런 서비스지원팀에 문의해보시겠어요? 좋은 하루되세요.감사합니다.
- 0
- 2
- 45
질문&답변
검증 방법 질문입니다.
안녕하세요~. 반갑습니다.네. 말씀해주신 내용이 맞습니다. 전체 동작과정은 아래와 같습니다.첫번째로 유저 프롬프트가 들어오면 이를 LLM으로 SQL Query 형태로 변경합니다.두번째로 첫번째 과정에서 LLM이 생성한 SQL Query에 오류가 없는지 LLM으로 검증합니다.좋은 하루되세요~.감사합니다.
- 0
- 2
- 71