인프런 커뮤니티 질문&답변
2강 api key 문의
해결된 질문
작성
·
23
0
강의에서 open ai api key 를 사용하는데
api 사용량이 없어서요..
ollama 같은 로컬 llm 모델로 사용해도 괜찮을까요?
답변 1
0
민혁
지식공유자
본 강의의 실습은 랭체인(LangChain) 환경에서 진행되기 때문에, Ollama를 사용하시는 경우에도 아래의 공식 가이드 링크를 참고하여 세팅하시면 충분히 실습이 가능합니다.
https://docs.langchain.com/oss/python/integrations/providers/ollama
다만, 책에서도 강조해 드린 것처럼 에이전트 시스템에서는 사용하는 모델의 성능이 결과물에 아주 결정적인 영향을 미칩니다. 로컬 모델을 사용하실 경우, 상용 모델에 비해 응답 속도가 다소 느리거나 복잡한 추론 과정에서 결과가 기대와 다를 수 있다는 점은 미리 참고해 주시면 좋겠습니다.
API 비용 부담 없이 로컬 환경에서 자유롭게 실험해 보시는 것도 에이전트의 원리를 이해하는 데 아주 좋은 방법입니다. 실습하시다가 궁금한 점이 생기면 언제든 편하게 질문 남겨주세요. 완독까지 응원하겠습니다!




