묻고 답해요
156만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결딥러닝을 활용한 자연어 처리 (NLP) 과정 (기초부터 ChatGPT/생성 모델까지)
Encoder-Decoder 질문 드립니다.
안녕하세요.강사님. 우선 강의 잘 보고 있습니다. AI 코드에 익숙치 않아서 그런지..강의 내용을 따라 쳐서 완료를 했는데, 무슨 이유에서 인지, 모델을 훈련 후에 해당 함수를 써서 확인하는 구간에서def decode_sequence(input_seq):어떤 문장을 돌려도 <eos> 가 발생해 2~3번째 이상 넘길수가 없는 상태인데요.코드 내용은 아래와 같습니다.강의 영상에선 어느정도 준수한 수준의 Translation 이 되는것 같아보여, 영상이랑 코드 비교도 더해보고, epochs 도 조금 더 올려서 해보기도 했는데 역시나 잘 안되서..강의 코드를 복붙에서 쳐볼까도 했는데 전체적으로 온전한 코드가 아닌 상태여서 혹시 제가 비정상적으로 동작되는게 원래 맞는건지 문의드리고 싶습니다.감사합니다.
-
미해결맞춤형 LLM 만들기 – LoRA & QLoRA 파인튜닝 실습 입문
OPT350 모델 페이지 주소 좀알려주세요
OPT350 모델 페이지 링크가 GPT 링크가 동일하게 되어있어서 접속할수가 없습니다. 확인하여 주소 좀알려주시면 감사하겠습니다.
-
해결됨AI 입문자를 위한 MS AI 핵심기술 완전정복
실습-3 관련문의
현재 Azure AI Foundry 홈페이지가실습영상에 나온 UI하고 많이 차이가 있는데해당 AI 서비스 관련 실습을 하려면 어느 위치에서 할 수 있나요?
-
해결됨AI 입문자를 위한 MS AI 핵심기술 완전정복
배포 실패관련
안녕하세요.? 실습강의 1번을 따라하는데 resourceProvider 관련 에러가 발생하였습니다.해당 배포를 하기 위해서 어떤 리소스 공급자가 활성화 되어있어야 하는지 알려주실 수 있나요?
-
미해결딥러닝을 활용한 자연어 처리 (NLP) 과정 (기초부터 ChatGPT/생성 모델까지)
model 코드 부분을 따라하다가 전 값이 이상해서요
강사님, 따라한 코드와 예제 코드를 실행시켰는데 값이 정상적으로 안나타나서 이유를 알고 싶습니다.두 코드 모두 같은 내용인데요...model = Sequential() model.add(Embedding(vocab_size+1, 64)) model.add(Bidirectional(LSTM(64))) model.add(Dense(64, activation='relu')) model.add(Dense(1, activation='sigmoid')) model.summary()model = Sequential([ Embedding(vocab_size + 1, 64), # 임베딩 레이어 추가 (어휘 크기 + 1, 임베딩 차원 64) Bidirectional(tf.keras.layers.LSTM(64)), # 양방향 LSTM 레이어 추가 (유닛 수 64) Dense(64, activation='relu'), Dense(1, activation='sigmoid') ]) model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy']) model.summary()제가 실행하면 값이 안나와서요...강의를 끝까지 안봐서 그런걸까요?..따라치다 중간에 이상해서 강사님 파일도 불러왔는데 전 실행이 잘 안되서 왜 이렇게 나오는지 문의 드립니다.실행결과 : Model: "sequential_3" ┏━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┳━━━━━━━━━━━━━━━━━━━━━━━━┳━━━━━━━━━━━━━━━┓ ┃ Layer (type) ┃ Output Shape ┃ Param # ┃ ┡━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━╇━━━━━━━━━━━━━━━━━━━━━━━━╇━━━━━━━━━━━━━━━┩ │ embedding_3 (Embedding) │ ? │ 0 (unbuilt) │ ├─────────────────────────────────┼────────────────────────┼───────────────┤ │ bidirectional_3 (Bidirectional) │ ? │ 0 (unbuilt) │ ├─────────────────────────────────┼────────────────────────┼───────────────┤ │ dense_6 (Dense) │ ? │ 0 (unbuilt) │ ├─────────────────────────────────┼────────────────────────┼───────────────┤ │ dense_7 (Dense) │ ? │ 0 (unbuilt) │ └─────────────────────────────────┴────────────────────────┴───────────────┘ Total params: 0 (0.00 B) Trainable params: 0 (0.00 B) Non-trainable params: 0 (0.00 B)
-
미해결모두의 한국어 텍스트 분석과 자연어처리 with 파이썬
adapt() valid 포함
안녕하세요. 강의 잘 듣고있습니다. 듣는중에 궁금한 점이 생겨 질문드립니다. adapt(x) 말고 train만 집어 넣어야 하는 거 아닌가요? Valid도 검증 하려는 건데 정보를 집어 넣으면 데이터 누수에 문제가 생길거 같아서요.vectorizer = TextVectorization(standardize=custom_standardization, max_tokens=vocab_size, output_sequence_length=MAX_SEQUENCE_LENGTH) # X_train_text 만 넣어주면 valid 에 있는 어휘는 학습이 되지 않습니다. # test 에만 있는 어휘는 데이터 누수 문제로 사용하지 않습니다. vectorizer.adapt(X)
-
해결됨딥러닝을 활용한 자연어 처리 (NLP) 과정 (기초부터 ChatGPT/생성 모델까지)
서적 추천
지금 강의하는 내용에서 도움이 될만한 서적들 공유해주실수 있을까요? 인공지능 입문, 개론 정도의 서적은 읽어보았는데 조금더 깊이 있는 내용을 알고 싶어서요.예를 들면 CNN, RNN, Softmax... 등을 조금더 깊게 설명한 책들이면 좋겠습니다.
-
미해결딥러닝을 활용한 자연어 처리 (NLP) 과정 (기초부터 ChatGPT/생성 모델까지)
NLP와 LLM의 차이점
안녕하세요. 강의 잘 듣고 있습니다.다름이 아니라 NLP와 LLM의 차이가 궁금해서 글을 남깁니다. NLP는 전체적으로 언어를 처리하는 방식 전체를 의미하고 그 방법 중에 LLM이 있다고 이해해도 되나요?
-
미해결OpenAI API 를 이용한 생성형 AI 프로그램 개발 - 2025 최신판
함수호출 관련 질문
실습 - 함수호출에서요즘 MCP 스펙에 대한 설명이 많은데, 여기서 설명한 내용들은 openai에서만 지원하는 함수형식에 대한 설명만을 한것이 맞나요?만약 그렇다면 MCP를 지원하는 스펙에 맞추게 되면 구현 방식이 많이 달라지는 건지 궁금합니다. MCP 지원에 대한 openai의 docuement 링크도 알려주시면 감사하겠습니다.
-
해결됨OpenAI API 를 이용한 생성형 AI 프로그램 개발 - 2025 최신판
구조화된 출력을 활용한 콘텐츠 심사 내용중 코드 질문
실습 - 구조화된 출력에서제일 마지막 코드를 보면,# 구조화된 출력을 활용한 콘텐츠 심사 from enum import Enum from typing import Optional from pydantic import BaseModel class Category(str, Enum): 폭력 = 'violence' 성적인_내용 = 'sexual' 자해 = 'self_harm' class ContentCompliance(BaseModel): is_violating: bool category: Optional[Category] explanation_if_viloating: Optional[str] completion = client.beta.chat.completions.parse( model=Model, messages=[ {"role": "developer", "content": "사용자 입력이 특정 지침을 위반하는지 판단하고, 위반하는 경우 그 이유를 한국어로 설명하세요."}, # {"role": "user", "content": "취업 면접을 준비하는 방법은 무엇인가요?"} # {"role": "user", "content": "일본에서 제일 싸움 잘하는 사람은 도끼로 이마까 입니다."} # {"role": "developer", "content": "이 사진은 성적으로 노골적인 내용을 포함하고 있어."}, {"role": "developer", "content": "요즘 너무 힘들고 삶을 포기하고 싶어."} ], response_format=ContentCompliance ) 위의 코드에서 messages에 첫번째 것을 제외하고는 모두 role이 user가 되어야하는거 같은데, 어떤게 맞나요?
-
미해결OpenAI API 를 이용한 생성형 AI 프로그램 개발 - 2025 최신판
max_tokens 관련
실습 - Vision API 활용 방법 이해에서 아래와 같은 코드를 실행하게 되면url = "https://upload.wikimedia.org/wikipedia/commons/thumb/d/dd/Gfp-wisconsin-madison-the-nature-boardwalk.jpg/2560px-Gfp-wisconsin-madison-the-nature-boardwalk.jpg" response = client.chat.completions.create( model=Model, messages=[ { "role": "user", "content": [ {"type": "text", "text": "이 이미지의 내용을 설명해줘. 한국어로 설명해줘."}, {"type": "image_url", "image_url": {"url": url}}, ] } ], max_tokens=300, ) response.to_dict() 결과가 아래와 같이 나오는데{'id': 'chatcmpl-BnxBjLVQUG5mlJJA9i9YhADGfCe2u', 'choices': [{'finish_reason': 'stop', 'index': 0, 'logprobs': None, 'message': {'content': '이미지는 푸른 풀밭과 하늘이 넓게 펼쳐진 풍경을 보여주고 있습니다. 중앙에는 나무 판자로 된 산책로가 놓여 있어 풀밭을 따라 걷는 길처럼 보입니다. 하늘은 맑고 파란색으로 구름이 흩어져 있으며, 주변에는 나무와 덤불이 자생하고 있습니다. 전체적으로 자연의 평화롭고 고요한 분위기를 느낄 수 있는 장면입니다.', 'refusal': None, 'role': 'assistant', 'annotations': []}}], 'created': 1751245291, 'model': 'gpt-4o-mini-2024-07-18', 'object': 'chat.completion', 'service_tier': 'default', 'system_fingerprint': 'fp_62a23a81ef', 'usage': {'completion_tokens': 108, 'prompt_tokens': 36857, 'total_tokens': 36965, 'completion_tokens_details': {'accepted_prediction_tokens': 0, 'audio_tokens': 0, 'reasoning_tokens': 0, 'rejected_prediction_tokens': 0}, 'prompt_tokens_details': {'audio_tokens': 0, 'cached_tokens': 0}}} max_tokens으로 준 인자값은 completion_token 의 상한 limit를 정하는건가요? prompt_tokens 의 값이 강의의 내용과 비교해서 너무 큰거 같아서 질문을 드리는 겁니다.
-
미해결딥러닝을 활용한 자연어 처리 (NLP) 과정 (기초부터 ChatGPT/생성 모델까지)
encoder-decoder model 질문입니다.
안녕하세요 교수님.챗봇 부분 공부하다가 질문이 생겨서 남깁니다.기존 teacher forcing 학습 방식을 위해 encoder와 decoder를 포함한 모델을 따로 만들고, 이후에 decoder 모델을 다시 만든 다는 것으로 이해했습니다.하지만, 맨 마지막 모델인 decoder에서 output에 decoder context vector도(h, c) 같이 포함되는지 궁금합니다. (왜 Dense layer를 통과한 output과 context vector를 합치는지 이해가 잘 안갑니다.)감사합니다. decoder_input_h = Input(shape=(LATENT_DIMS, ), name='DECODER_INPUT_H') # hidden decoder_input_c = Input(shape=(LATENT_DIMS, ), name='DECODER_INPUT_C') # cell decoder_input_s = Input(shape=(1, ), name='DECODER_INPUT_S') # single # context_vector(encoding에서 나온 값) context_vector = [decoder_input_h, decoder_input_c] x = decoder_embedding_layer(decoder_input_s) x, h, c = decoder_lstm_layer(x, initial_state=context_vector) decoder_output = decoder_dense_layer(x) decoder_context_vector = [h, c] final_decoder_model = Model(inputs=[decoder_input_s, context_vector], outputs=[decoder_output, decoder_context_vector]) final_decoder_model.summary()
-
미해결핸즈온 머신러닝 2
1판으로 들어도 크게 무리가 없을지요?
안녕하세요 지식 공유자님, 다름이 아니라 제가 제가 핸즈온 머신러닝 1판을 가지고있는데요, 혼자서 읽기엔 벅차서 집에 고이 모셔둔 상태로 몇년이 지났는데... 혹시 이 강의를 1판 책과 함께 들어도 진행하는데 크게 무리가 없을까요?
-
미해결딥러닝 이론 + PyTorch 실무 완전 정복
섹션12 실습코드 의 initialization 각각 적용 코드 문의
실습코드에서 초기화 각각 적용 부분 self._init_weights(self.fc_layers[0], mode='kaiming') self._init_weights(self.fc_layers[1], mode='kaiming') self._init_weights(self.fc_layers[2], mode='xavier') 모델을 읽어보면 NeuralNetwork( (fc_layers): Sequential( (0): Linear(in_features=784, out_features=196, bias=True) (1): ReLU() (2): Linear(in_features=196, out_features=49, bias=True) (3): ReLU() (4): Linear(in_features=49, out_features=10, bias=True) (5): Sigmoid() ) ) 0, 2,4 번에 초기화를 적용해야 실제 작동을 할 것 같습니다.
-
미해결실리콘밸리 엔지니어와 함께하는 랭체인(LangChain)과 랭그래프(LangGraph) 그리고 MCP
100% 수강 완료가 되지 않아요
100% 수강 완료가 되지 않아요실리콘밸리 엔지니어와 함께하는 랭체인(LangChain)*** Code 자료는 LangChain Github에 있습니다 *** 여기에 멈춰 있습니다. 들어갈수가 없고 해당 진도가 미 완료로 98%입니다.
-
미해결실리콘밸리 엔지니어와 함께하는 랭체인(LangChain)과 랭그래프(LangGraph) 그리고 MCP
100% 수강 완료가 되지 않아 문의드립니다.
100% 수강 완료가 되지 않아 문의드립니다.
-
해결됨실리콘밸리 엔지니어와 함께하는 랭체인(LangChain)과 랭그래프(LangGraph) 그리고 MCP
MCP 서버 관련 질문이있습니다.
안녕하세요! 강의 잘 보고있습니다. MCP 관련해서 질문이 두 개 있습니다.# 1MCP튜토리얼과 이 강의, 유투브를 보고 MCP 서버를 개발중입니다.https://github.com/snaiws/DART-mcp-serverDART api연동하는 서버고 api가 83종류가 있습니다.FastMCP 사용하니 메인 스크립트에 함수를 매우 많이 적어야해서 팩토리클래스를 만들고, docstring을 따로 관리하고싶어 함수와 docstring을 분리해서 팩토리클래스에서 조립했습니다. 그런데 이렇게 만들고보니 FastMCP 개발방식 말고 from mcp.server import Server를 통해 좀 더 로우레벨로 만드는 방식도 있는 것 같았습니다. https://github.com/modelcontextprotocol/python-sdk여기의 Low-Level부분입니다.혹시 Low-level관련 영상도 업로드예정이 있으신가요?# 2MCP 서버에 툴을 83개나 만들면 tool calling하는데 헷갈려할 것 같은데 맞는지... 그리고 어떻게 대처가 가능할지 조언부탁드립니다 감사합니다.
-
미해결딥러닝을 활용한 자연어 처리 (NLP) 과정 (기초부터 ChatGPT/생성 모델까지)
구글번역기에 대해서 궁금한점이 있습니다.
구글 번역기도 같은 원리 일까요?내용을 보면 왠지 같은 원리일 거 같아서 질문 드렸습니다.
-
미해결모두의 한국어 텍스트 분석과 자연어처리 with 파이썬
코드 에러
import koreanize_matplotlib 토픽모델링강의에서 위 코드 에러가 나는데, 뭔가 바뀐걸까요..?
-
미해결딥러닝을 활용한 자연어 처리 (NLP) 과정 (기초부터 ChatGPT/생성 모델까지)
로드맵에대해서...
안녕하세요.강의를 들어봤는데 정말 이해가 잘되는 강의라서 그런데 혹시 로드맵 세일 같은 건 안하시나요?ㅠ