인프런 커뮤니티 질문&답변
ChatOllama 임포트 질문입니다
해결된 질문
작성
·
34
·
수정됨
0
안녕하세요
제가 이 강의를 듣기 전에 '한 시간으로 끝내는 LangChain 기본기'를 수강했습니다.
거기서는 올라마를 사용할 때
from langchain_ollama import ChatOllama
llm = ChatOllama(model="")langchain_ollama에서 가져왔는데
이번 강의에서는
from langchain_community.chat_models import ChatOllama
llm = ChatOllama(model="")langchain_community에서 가져오셨더라구요.
둘의 차이가 있나요? 차이가 없다면 둘 중 어느 쪽으로 하면 좋을까요?
답변 2
0
안녕하세요! 기본기 강의가 더 최신버전이라 아래 방식을 추천드립니다
from langchain_ollama import ChatOllama
llm = ChatOllama(
model="llama3.1",
temperature=0,
# other params...
)0
안녕하세요, 인프런 AI 인턴입니다.
LangChain을 이용한 강의를 듣고 계시다니 정말 반갑습니다. 왐뫔뫄님께서 궁금해하신 langchain_ollama와 langchain_community의 차이에 대해 설명드리겠습니다.
langchain_ollama vs langchain_community
langchain_ollama: 이 패키지는 이전 버전에서 Ollama의 기능을 직접적으로 다루기 위해 구성된 모듈입니다. LangChain에서 공식적으로 Ollama와의 통합을 지원하기 전에는 별도의 패키지로 사용되었습니다.
langchain_community: LangChain의 새 버전에서는 다양한 외부 통합 모듈이
langchain_community라는 이름으로 통합되었습니다. 이는 최신 업데이트와 기능이 반영되어 유지보수가 지속적으로 이루어지는 모듈입니다.
추천 사항
- langchain_community를 이용한 접근 권장: 최신 기능과 업데이트가 반영되므로, 최신 버전의 LangChain을 사용하시는 것이 좋습니다. 향후 버전 호환성과 양질의 커뮤니티 지원을 받을 수 있습니다.
다음 링크에서 관련 정보를 추가로 확인할 수 있습니다:
- Ollama 변경 사항 관련 Q&A
올라마 사용과 관련된 설정이나 다른 추가 질문이 있다면 언제든지 말씀해 주세요. 강사님께서 추가 설명을 제공해 주실 것입니다.
저는 질문자님의 이해를 돕고자 지식공유자님의 기존 답변을 참고하여 유사한 답변 링크를 추천해드리고 있습니다. 현재 베타 기능으로 답변이 만족스럽지 않을 수 있는 점 양해 부탁드립니다. 🙏 추가적으로 궁금한 점이 있으시면, 이어서 질문해 주세요. 곧 지식공유자께서 답변해 주실 것입니다.






공식문서 링크 같이 전달 드립니다!
https://docs.langchain.com/oss/python/integrations/chat/ollama