묻고 답해요
164만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결노코드 자동화 입문부터 실전까지: n8n 완전정복 (한국 최초 n8n 앰버서더 직강)
40강에서 식단관련 채널이 없어졌습니다.
문제 / 오류 / 질문에 대해 설명해 주세요40강에서 식단관련 채널이 없어졌습니다. 그래서 그런데 다른 Http Request에서 통합데이터 즉 테이블로 분류 되지 않은 데이터에서 분류할수 있는 필요한 데이터만 가져올수 있게 하는 방법들이 있나요?오류 메시지가 있다면 작성해 주세요 사용 중인 워크플로우를 공유해 주세요 n8n 설치 정보 안내 n8n 버전:데이터베이스 종류 (기본값: SQLite):n8n 실행 프로세스 설정 (기본값: own, main):n8n 실행 방식 (예: Docker, npm, n8n cloud, 데스크탑 앱 등):Docker운영 체제:WIN10
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
RAG 구조에서 전체 맥락을 이해시키는 방법
안녕하세요, 강사님.강의 덕분에 RAG를 활용한 챗봇을 성공적으로 구현해서 잘 사용하고 있습니다!(질문1)다만, RAG 구조상 사용자의 질문과 가장 유사한 문서 조각(chunk)을 찾아서 그 안에서만 답변을 생성하다 보니, 전체 문서를 이해해서 답변을 해주지는 못하는 점이 아쉽습니다.RAG로 학습시킨 매뉴얼이 약 47페이지 정도이고 양이 많지 않은데,이 전체 매뉴얼의 내용 전체를 이해하고 종합적으로 답변할 수 있는 방법이 있을까요?출처를 알려줄 수 있는 RAG의 분명한 장점이 있어서, 현재의 RAG 기반 구조를 유지한 채 개선을 할 수 있는 방법이 있을지 궁금합니다. (질문2)47페이지 문서 외에 더 자세한 매뉴얼을 추가로 반영하려고 하는데요,이때 pinecone에 동일 DB(인덱스)로 그냥 추가하는게 좋을지 아니면 더 나은 구조가 있을지 조언 구하고 싶습니다.감사합니다.
-
해결됨Cursor AI로 만들면서 배우는 Web & Javascript
Gemini API Key 관련 문의입니다.
강사님, Vibe 코딩에 관심이 있어서 강의를 수강하고 있는데앞부분에 알려주신 API KEY 입력 관련해서 Google AI Studio에서 API KEY 받아서 알려주신 대로 Cursor 입력해서 사용하는데,, Cursor 화면 인터페이스가 영상 촬영하신 2월달과 달라진거 같고설명주시는 Gemini 2.0 flash도 조회가 안되는거 같은데... 현재 Cursor 환경이 달라진 걸까요? 궁금해서 문의드립니다.
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 완독 챌린지
4장 강의는 아직 업로드가 안된걸까요?
추석 연휴에 완독 목표로 하루에 한장씩 도전중입니다.4장부터는 강의가 안보이는데, 아직 등록이 안된걸까요?
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 완독 챌린지
코드 2-3 출력 결과 비교
안녕하세요.코드 2-3의 SimpleTokenizerV1을 실행한 결과에 대해 문의드립니다.아래 코드를 실행해보니 원문 text와 decode로 복원한 text가 조금 다릅니다.원문과 복원한 text가 다르면 문제가 있을지 문의드립니다.class SimpleTokenizerV1: def __init__(self, vocab): self.str_to_int = vocab self.int_to_str = {i:s for s,i in vocab.items()} def encode(self, text): preprocessed = re.split(r'([,.:;?_!"()\']|--|\s)', text) # 'hello,. world' preprocessed = [ item.strip() for item in preprocessed if item.strip() ] ids = [self.str_to_int[s] for s in preprocessed] return ids def decode(self, ids): text = " ".join([self.int_to_str[i] for i in ids]) # 구둣점 문자 앞의 공백을 삭제합니다. text = re.sub(r'\s+([,.?!"()\'])', r'\1', text) return text tokenizer = SimpleTokenizerV1(vocab) text = """"It's the last he painted, you know," Mrs. Gisburn said with pardonable pride.""" ids = tokenizer.encode(text) print(text) print(ids) print(tokenizer.decode(ids)) "It's the last he painted, you know," Mrs. Gisburn said with pardonable pride. [1, 56, 2, 850, 988, 602, 533, 746, 5, 1126, 596, 5, 1, 67, 7, 38, 851, 1108, 754, 793, 7] " It' s the last he painted, you know," Mrs. Gisburn said with pardonable pride.
-
미해결LangGraph를 활용한 AI Agent 개발 (feat. MCP)
2.4 생성된 답변을 여러번 검증하는 Self-RAG 강의 에서 질문드립니다.
답변이 hallucinated인지 판별하는 노드에서 max_tokens를 100으로 설정했을 때는 올바르게 판단이 됐습니다.그렇다면, 답변의 길이가 너무 길어서 모델이 hallucination 여부를 제대로 판별하지 못했다고 보신 건가요?다만 이런 경우라면, 답변의 길이를 조정하기보다는 hallucination 여부를 판별하는 모델 자체를 조정하는 게 더 적절하지 않을까요?실무 환경에서도 이런 상황이 발생할 수 있을 것 같은데, 보통은 답변 생성 모델을 판별 모델에 맞추는 게 일반적인지,아니면 판별 모델을 답변 생성 모델에 맞추는 게 더 낫다고 보는지 궁금합니다.
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 완독 챌린지
10월 6일 코드해서 쿠폰 일괄 지급 문의드립니다.
<밑바닥부터 만들면서 배우는 LLM> 코드 해설 강의 (10월 6일 무료 쿠폰 일괄 지급)쿠폰은 어디서 확인하면 되는지 문의드립니다.
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 해설 강의
슬라이딩 윈도우를 위해 for Loop 만들시 stride 관련 질문
Chapter2에서 슬라이딩 윈도우 만들때 stride를 128로 했는데요, 타깃은 인풋 마지막 토큰의 다음번째 토큰을 예측 하기 위해 for문을 돌면서 첫번째 타깃은 2번째 토큰, 다음은 3번째 토큰.. 이런식으로 되는걸로 아는데 갑자기 128로 건너 뛰는 이유는 무엇인지요?
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
ㅠ 업스테이지 임베딩을 못 쓰네요..
업스테이징 임베딩에서 오픈ai쪽 _AllReturnType를 사용하는건가요?ㅠ버전 문제 같은데, 해결 방법이 없을까요 ? --------------------------------------------------------------------------- ImportError Traceback (most recent call last) Cell In[12], line 2 1 from dotenv import load_dotenv ----> 2 from langchain_upstage import UpstageEmbeddings 4 load_dotenv() 5 embedding = UpstageEmbeddings( 6 model = "solar-embedding-1-large" 7 ) File ~/IdeaProjects/inflearn-llm-app/.venv/lib/python3.10/site-packages/langchain_upstage/__init__.py:1 ----> 1 from langchain_upstage.chat_models import ChatUpstage 2 from langchain_upstage.document_parse import UpstageDocumentParseLoader 3 from langchain_upstage.document_parse_parsers import UpstageDocumentParseParser File ~/IdeaProjects/inflearn-llm-app/.venv/lib/python3.10/site-packages/langchain_upstage/chat_models.py:43 41 from langchain_core.utils import from_env, secret_from_env 42 from langchain_core.utils.function_calling import convert_to_openai_tool ---> 43 from langchain_openai.chat_models.base import ( 44 BaseChatOpenAI, 45 _AllReturnType, 46 _convert_message_to_dict, 47 _DictOrPydantic, 48 _DictOrPydanticClass, 49 _is_pydantic_class, 50 ) 51 from pydantic import BaseModel, Field, SecretStr, model_validator 52 from tokenizers import Tokenizer ImportError: cannot import name '_AllReturnType' from 'langchain_openai.chat_models.base' (/Users/xeroman.k/IdeaProjects/inflearn-llm-app/.venv/lib/python3.10/site-packages/langchain_openai/chat_models/base.py)
-
미해결AI의 대 해적시대가 열렸습니다.
Chat GPT 프롬프트 작성 방법
거짓 정보 제공을 축소 , 잘못된 정보 편향성 축소를 위한 프롬프트 작성 방법을 알려주세요.
-
미해결노코드 자동화 입문부터 실전까지: n8n 완전정복 (한국 최초 n8n 앰버서더 직강)
MCP 강의 따라하다보니 n8n에서 MCP 클로드로 연결이 안됨
문제 / 오류 / 질문에 대해 설명해 주세요n8n에서 MCP 클로드로 연결이 안되요. 하단의 첨부된 이미지 같이 오류가 발생됩니다.오류 메시지가 있다면 작성해 주세요 사용 중인 워크플로우를 공유해 주세요 n8n 설치 정보 안내 n8n 버전:데이터베이스 종류 (기본값: SQLite):n8n 실행 프로세스 설정 (기본값: own, main):n8n 실행 방식 (예: Docker, npm, n8n cloud, 데스크탑 앱 등):Docker운영 체제:윈도우10
-
해결됨한시간으로 끝내는 LangChain 기본기
openai 사용하면서부터 할당량 초과했다고 나오네요.
RateLimitError: Error code: 429 - {'error': {'message': 'You exceeded your current quota, please check your plan and billing details. For more information on this error, read the docs: https://platform.openai.com/docs/guides/error-codes/api-errors.', 'type': 'insufficient_quota', 'param': None, 'code': 'insufficient_quota'}}무료계정이라 할당량 초과로 뜨는 거 같은데요.
-
미해결한시간으로 끝내는 LangChain 기본기
Safety 이해
안녕하세요 Safety 체인에 대해서 이해가 잘 안가서요.예를들어 "독도는 누구땅이냐?"는 질문으로 하고 AI가 "독도는 한국땅"이다라는 응답을 했을때 해당 답변이 할루시네이션인지 아닌지를 검증하기 위한 "독도는 한국땅이 맞아 맞으면: Yes, 틀리면: No 로 대답해줘" 라는 Safety 질문을 만들고 그거를 체인으로 연결시키라는걸로 이해했는데 맞을까요?
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
upstate import 가 안됩니다.
---------------------------------------------------------------------------ImportError Traceback (most recent call last) Cell In[3], line 1 ----> 1 from langchain_upstage import ChatUpstage 2 llm = ChatUpstage() File ~/Documents/dev/Langchain/devInf/.venv311/lib/python3.11/site-packages/langchain_upstage/__init__.py:1----> 1 from langchain_upstage.chat_models import ChatUpstage 2 from langchain_upstage.document_parse import UpstageDocumentParseLoader 3 from langchain_upstage.document_parse_parsers import UpstageDocumentParseParser File ~/Documents/dev/Langchain/devInf/.venv311/lib/python3.11/site-packages/langchain_upstage/chat_models.py:4341 from langchain_core.utils import from_env, secret_from_env 42 from langchain_core.utils.function_calling import convert_to_openai_tool ---> 43 from langchain_openai.chat_models.base import ( 44 BaseChatOpenAI, 45AllReturnType, 46convert_message_to_dict, 47DictOrPydantic, 48DictOrPydanticClass, 49ispydantic_class, 50 ) 51 from pydantic import BaseModel, Field, SecretStr, model_validator 52 from tokenizers import Tokenizer ImportError: cannot import name '_AllReturnType' from 'langchain_openai.chat_models.base' (/Users/frair/Documents/dev/Langchain/devInf/.venv311/lib/python3.11/site-packages/langchain_openai/chat_models/base.py)이런 메세지이고요from langchain_upstage import ChatUpstage llm = ChatUpstage()해당부분 실행시 나타납니다.파이썬 3.11.9 버전 사용하고 있고 설치된 랭체인들을 보니 langchain_openai-0.3.34langchain)upstage-0.7.3버전으로 설치가 되어있기는 합니다.venv 사용하고 있고 맥os 실리콘 쓰고있습니다.
-
해결됨비전공자도 1시간 만에 크롬 확장 프로그램 개발하고 실생활 활용하기 (바이브 코딩, Cursor AI)
캡쳐 기능 만들고 싶어요
1.간편캡쳐--> 내가 원하는 만큼 드래그해서 캡쳐하기 2.크기지정캡쳐--> 크기 지정을 한후 캡쳐하기이렇게 해서 해보려고 하는데 잘 안됩니다 (에러가 계속 생김)혹시 괜찮으시면 강의 만들어 주실수있을까요?
-
미해결LangGraph를 활용한 AI Agent 개발 (feat. MCP)
langGraph를 쓰는 이유
langChain으로도 rewrite generate 이런거 구현이 가능한데 복잡하고 코드가 많이 늘어나고 AI 호출도 많이 일어나니 langGraph를 쓰는거라고 이해했는데 맞을까요?
-
미해결노코드 자동화 입문부터 실전까지: n8n 완전정복 (한국 최초 n8n 앰버서더 직강)
Chat Trigger를 통한 Google Sheet 자동화 관련
문제 / 오류 / 질문에 대해 설명해 주세요Google Sheet에서 원하는 정보를 추출하고 싶습니다. 다행히 column 기준으로 필터링을 우선적으로 하고 row 값들을 간단하게 반환해주는 그런 시도를 하고 싶은데, google sheet get 에서 filtering field를 정의할 수 있는 것으로 보이는데, MCP Client를 통해서 유저가 해당 filtering field를 전부 언급할때까지 지속적으로 되묻고 싶은데 그 로직을 어떻게 해야하는지 모르겠습니다. 제가 필터링의 장소랑 이름을 적어 넣는다면 유저가 장소와 이름을 반드시 말해줬으면 좋겠어요. 그런데 AI Agent와 MCP Client tool 사이에 어떤 무언가를 실행해줘야하는건지 모르겠습니다. 감사합니다.오류 메시지가 있다면 작성해 주세요 사용 중인 워크플로우를 공유해 주세요https://drive.google.com/drive/folders/1Uczsg2OB4MF6k7gdU7PIlr90Ucs18JmK?usp=sharingn8n 설치 정보 안내 n8n 버전: 최신 버전 (n8nio/n8n 이미지 사용 - sha256:57f95a26b1b2...)데이터베이스 종류: PostgreSQL (postgresdb)n8n 실행 프로세스 설정: own, main (기본값)n8n 실행 방식: Docker (Kubernetes/AKS)운영 체제: Linux (Container 기반)
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
3.3 코드 에러
3.3 LangChain 없이 구성하는 RAG의 불편함.ipynb의 8번째tax_collection = chroma_client.get_or_create_collection(collection_name, embedding_function=openai_embedding)에서 아래의 에러가 납니다.ValueError: An embedding function already exists in the collection configuration, and a new one is provided. If this is intentional, please embed documents separately. Embedding function conflict: new: openai vs persisted: default 어떻게 해야하나요?
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
현업에서 LangChain 사용에 대해 질문드립니다
안녕하세요 강사님 강의 듣고 이젠 스스로가 재밌어서 LangChain 문서들 혼자서 읽고 학습중입니다 ㅎㅎ강의를 들으면서 몇개 질문들이 있는데요현업에서 LangChain이 많이 쓰이나요?해외 reddit이나 개발자 커뮤니티에서도 랭체인이 오히려 불편하다고, 실제 서비스에서는 안쓴다고 하는 분들이 있어서 현업에서도 잘 쓰는지 궁급합니다LangChain 공식 문서를 보면 너무 자주 바뀌는데, 어떻게 해결하시나요?특히 API에서 말하는 예제랑 공식 문서에서 소개하는 예제가 너무 다릅니다 (retrieval chain 등)현재 2025년 10월 기준, 강의 내용은 0.2 기반이고 현재 랭체인 버전은 0.3, 그리고 10월 말에 1.0이 정식 출시된다고 해서 너무 혼란스럽네요바뀔 떄마다 코드를 수정하시는건가요?
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 완독 챌린지
LLM 도서 구매
LLM 도서구매는 개별적으로 하면 되는지요?