묻고 답해요
161만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
해결됨OpenAI API 를 이용한 생성형 AI 프로그램 개발
구조화된 출력을 활용한 콘텐츠 심사 내용중 코드 질문
실습 - 구조화된 출력에서제일 마지막 코드를 보면,# 구조화된 출력을 활용한 콘텐츠 심사 from enum import Enum from typing import Optional from pydantic import BaseModel class Category(str, Enum): 폭력 = 'violence' 성적인_내용 = 'sexual' 자해 = 'self_harm' class ContentCompliance(BaseModel): is_violating: bool category: Optional[Category] explanation_if_viloating: Optional[str] completion = client.beta.chat.completions.parse( model=Model, messages=[ {"role": "developer", "content": "사용자 입력이 특정 지침을 위반하는지 판단하고, 위반하는 경우 그 이유를 한국어로 설명하세요."}, # {"role": "user", "content": "취업 면접을 준비하는 방법은 무엇인가요?"} # {"role": "user", "content": "일본에서 제일 싸움 잘하는 사람은 도끼로 이마까 입니다."} # {"role": "developer", "content": "이 사진은 성적으로 노골적인 내용을 포함하고 있어."}, {"role": "developer", "content": "요즘 너무 힘들고 삶을 포기하고 싶어."} ], response_format=ContentCompliance ) 위의 코드에서 messages에 첫번째 것을 제외하고는 모두 role이 user가 되어야하는거 같은데, 어떤게 맞나요?
-
미해결OpenAI API 를 이용한 생성형 AI 프로그램 개발
max_tokens 관련
실습 - Vision API 활용 방법 이해에서 아래와 같은 코드를 실행하게 되면url = "https://upload.wikimedia.org/wikipedia/commons/thumb/d/dd/Gfp-wisconsin-madison-the-nature-boardwalk.jpg/2560px-Gfp-wisconsin-madison-the-nature-boardwalk.jpg" response = client.chat.completions.create( model=Model, messages=[ { "role": "user", "content": [ {"type": "text", "text": "이 이미지의 내용을 설명해줘. 한국어로 설명해줘."}, {"type": "image_url", "image_url": {"url": url}}, ] } ], max_tokens=300, ) response.to_dict() 결과가 아래와 같이 나오는데{'id': 'chatcmpl-BnxBjLVQUG5mlJJA9i9YhADGfCe2u', 'choices': [{'finish_reason': 'stop', 'index': 0, 'logprobs': None, 'message': {'content': '이미지는 푸른 풀밭과 하늘이 넓게 펼쳐진 풍경을 보여주고 있습니다. 중앙에는 나무 판자로 된 산책로가 놓여 있어 풀밭을 따라 걷는 길처럼 보입니다. 하늘은 맑고 파란색으로 구름이 흩어져 있으며, 주변에는 나무와 덤불이 자생하고 있습니다. 전체적으로 자연의 평화롭고 고요한 분위기를 느낄 수 있는 장면입니다.', 'refusal': None, 'role': 'assistant', 'annotations': []}}], 'created': 1751245291, 'model': 'gpt-4o-mini-2024-07-18', 'object': 'chat.completion', 'service_tier': 'default', 'system_fingerprint': 'fp_62a23a81ef', 'usage': {'completion_tokens': 108, 'prompt_tokens': 36857, 'total_tokens': 36965, 'completion_tokens_details': {'accepted_prediction_tokens': 0, 'audio_tokens': 0, 'reasoning_tokens': 0, 'rejected_prediction_tokens': 0}, 'prompt_tokens_details': {'audio_tokens': 0, 'cached_tokens': 0}}} max_tokens으로 준 인자값은 completion_token 의 상한 limit를 정하는건가요? prompt_tokens 의 값이 강의의 내용과 비교해서 너무 큰거 같아서 질문을 드리는 겁니다.
-
미해결딥러닝을 활용한 자연어 처리 (NLP) 과정 (기초부터 ChatGPT/생성 모델까지)
encoder-decoder model 질문입니다.
안녕하세요 교수님.챗봇 부분 공부하다가 질문이 생겨서 남깁니다.기존 teacher forcing 학습 방식을 위해 encoder와 decoder를 포함한 모델을 따로 만들고, 이후에 decoder 모델을 다시 만든 다는 것으로 이해했습니다.하지만, 맨 마지막 모델인 decoder에서 output에 decoder context vector도(h, c) 같이 포함되는지 궁금합니다. (왜 Dense layer를 통과한 output과 context vector를 합치는지 이해가 잘 안갑니다.)감사합니다. decoder_input_h = Input(shape=(LATENT_DIMS, ), name='DECODER_INPUT_H') # hidden decoder_input_c = Input(shape=(LATENT_DIMS, ), name='DECODER_INPUT_C') # cell decoder_input_s = Input(shape=(1, ), name='DECODER_INPUT_S') # single # context_vector(encoding에서 나온 값) context_vector = [decoder_input_h, decoder_input_c] x = decoder_embedding_layer(decoder_input_s) x, h, c = decoder_lstm_layer(x, initial_state=context_vector) decoder_output = decoder_dense_layer(x) decoder_context_vector = [h, c] final_decoder_model = Model(inputs=[decoder_input_s, context_vector], outputs=[decoder_output, decoder_context_vector]) final_decoder_model.summary()
-
미해결핸즈온 머신러닝 2
1판으로 들어도 크게 무리가 없을지요?
안녕하세요 지식 공유자님, 다름이 아니라 제가 제가 핸즈온 머신러닝 1판을 가지고있는데요, 혼자서 읽기엔 벅차서 집에 고이 모셔둔 상태로 몇년이 지났는데... 혹시 이 강의를 1판 책과 함께 들어도 진행하는데 크게 무리가 없을까요?
-
미해결딥러닝 이론 + PyTorch 실무 완전 정복
섹션12 실습코드 의 initialization 각각 적용 코드 문의
실습코드에서 초기화 각각 적용 부분 self._init_weights(self.fc_layers[0], mode='kaiming') self._init_weights(self.fc_layers[1], mode='kaiming') self._init_weights(self.fc_layers[2], mode='xavier') 모델을 읽어보면 NeuralNetwork( (fc_layers): Sequential( (0): Linear(in_features=784, out_features=196, bias=True) (1): ReLU() (2): Linear(in_features=196, out_features=49, bias=True) (3): ReLU() (4): Linear(in_features=49, out_features=10, bias=True) (5): Sigmoid() ) ) 0, 2,4 번에 초기화를 적용해야 실제 작동을 할 것 같습니다.
-
미해결실리콘밸리 엔지니어와 함께하는 랭체인(LangChain)과 랭그래프(LangGraph) 그리고 MCP
100% 수강 완료가 되지 않아요
100% 수강 완료가 되지 않아요실리콘밸리 엔지니어와 함께하는 랭체인(LangChain)*** Code 자료는 LangChain Github에 있습니다 *** 여기에 멈춰 있습니다. 들어갈수가 없고 해당 진도가 미 완료로 98%입니다.
-
미해결실리콘밸리 엔지니어와 함께하는 랭체인(LangChain)과 랭그래프(LangGraph) 그리고 MCP
100% 수강 완료가 되지 않아 문의드립니다.
100% 수강 완료가 되지 않아 문의드립니다.
-
해결됨실리콘밸리 엔지니어와 함께하는 랭체인(LangChain)과 랭그래프(LangGraph) 그리고 MCP
MCP 서버 관련 질문이있습니다.
안녕하세요! 강의 잘 보고있습니다. MCP 관련해서 질문이 두 개 있습니다.# 1MCP튜토리얼과 이 강의, 유투브를 보고 MCP 서버를 개발중입니다.https://github.com/snaiws/DART-mcp-serverDART api연동하는 서버고 api가 83종류가 있습니다.FastMCP 사용하니 메인 스크립트에 함수를 매우 많이 적어야해서 팩토리클래스를 만들고, docstring을 따로 관리하고싶어 함수와 docstring을 분리해서 팩토리클래스에서 조립했습니다. 그런데 이렇게 만들고보니 FastMCP 개발방식 말고 from mcp.server import Server를 통해 좀 더 로우레벨로 만드는 방식도 있는 것 같았습니다. https://github.com/modelcontextprotocol/python-sdk여기의 Low-Level부분입니다.혹시 Low-level관련 영상도 업로드예정이 있으신가요?# 2MCP 서버에 툴을 83개나 만들면 tool calling하는데 헷갈려할 것 같은데 맞는지... 그리고 어떻게 대처가 가능할지 조언부탁드립니다 감사합니다.
-
미해결딥러닝을 활용한 자연어 처리 (NLP) 과정 (기초부터 ChatGPT/생성 모델까지)
구글번역기에 대해서 궁금한점이 있습니다.
구글 번역기도 같은 원리 일까요?내용을 보면 왠지 같은 원리일 거 같아서 질문 드렸습니다.
-
미해결모두의 한국어 텍스트 분석과 자연어처리 with 파이썬
코드 에러
import koreanize_matplotlib 토픽모델링강의에서 위 코드 에러가 나는데, 뭔가 바뀐걸까요..?
-
미해결딥러닝을 활용한 자연어 처리 (NLP) 과정 (기초부터 ChatGPT/생성 모델까지)
로드맵에대해서...
안녕하세요.강의를 들어봤는데 정말 이해가 잘되는 강의라서 그런데 혹시 로드맵 세일 같은 건 안하시나요?ㅠ
-
해결됨딥러닝을 활용한 자연어 처리 (NLP) 과정 (기초부터 ChatGPT/생성 모델까지)
Bag of Word (BOW)와TF-IDF시 대명사인 I의행방
Bag of Word (BOW)와TF-IDF시 대명사인 I가 리스트업 안되는데 이건 어디로 사라지는걸까요?
-
미해결딥러닝 이론 + PyTorch 실무 완전 정복
오타
안녕하세요.7:13에 맨 오른쪽아래에 XN(t+1)에서 M인데 N으로 오타가 있습니다.
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
혹시 이론강의 자료도 공유가 가능하실까요?
안녕하세요 변정현 강사님.강의 잘 듣고있습니다. 실습 수업 때는 주피터 노트북 형식으로 강의자료 다운로드가 가능한데, 혹시 이론강의 자료도 공유가 가능하신가해서 질문을 드립니다. 내용만 볼수있으면 pdf형식이나 워터마크가 추가되어도 크게 문제가 없을것 같은데, 혹시 가능하실까요?
-
미해결예제로 배우는 딥러닝 자연어 처리 입문 NLP with TensorFlow - RNN부터 BERT까지
가중치에 대한 질문
안녕하세요 질문이 있습니다.Multi-Hed Attention 에서 여러개의 Q,K,V 벡터들을 학습시켜 Concat 시키는데 1. 이 경우에는 어떤식으로 Concat이 되나요?이렇게 Concat이 되게되면 값이 증폭하는 일이 생기지 않나요>?
-
해결됨딥러닝을 활용한 자연어 처리 (NLP) 과정 (기초부터 ChatGPT/생성 모델까지)
강의 교재 최신화 요청
강의에 나오는 내용과 교재 내용의 차이가 있습니다.교재 최신화 부탁드립니다.
-
미해결딥러닝 이론 + PyTorch 실무 완전 정복
[sec. 2-8 실습] 배치사이즈의 선택
안녕하세요. 좋은 강의 잘 듣고 있습니다. 반복해서 여러 차례 들을 수 있어서 정말 좋습니다. 조금 기초적인 질문인가 싶은데요. 아래 이미지에서 질문이 있습니다.맨 아래 셀의 코드 x = torch.rand(8, 128)에서 배치 사이즈를 8로 정하는 이유를 질문드립니다.in feature가 128이고, out feature가 64라서 대략 2의 배수가 선택된 것인가 추측합니다. 다음 시리즈 기다리고 있습니다. 감사합니다.
-
해결됨[LLM 101] LLM 초보를 위한 Llama SFT 강의 (feat. ChatApp Poc)
colab 실습 에러 질문
안녕하세요 colab 실습 강좌를 보고 따라하고 있는중 에러가 나서 질문드립니다.모델을 로딩하고 , 토크나이저 초기화 및 설정, 새로운 토큰 추가 및 모델의 임베딩 크기 조절 과채팅 템플릿 적용 peft 모델 가져오기 까지는 잘 진행되었습니다.trainer = SFTTrainer 생성 부분에서 tokenizer,max_seq_length, neftune_noise_alpha 인자 설정 시 에러가 발생합니다.이부분을 주석으로 처리하면 생성은 되나 정상적으로 학습이 수행되지 않습니다.오류 화면을 첨부합니다. 답변 주시면 감사합니다!
-
미해결모두의 한국어 텍스트 분석과 자연어처리 with 파이썬
감성 분석을 하려면 어떤 부분을 공부해야 하나요?
프로젝트에서 감성 분석과 주제 찾는 작업이 필요합니다.주제 찾기는 강의를 통해 배울수 있을거 같은데요 감성 분석은 어떤것을 공부하면 좋을까요?
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
[section 14 / [실습] 직접 만든 CNN 모델과 ResNet, VGGNet을 활용한 CV 프로젝트] transforms.Normalize 질문
cifar10 데이터셋에 대하여 Normalize를 적용하는 이유가 궁금합니다.mean과 std 리스트에 들어있는 값의 의미가 무엇인가요?이미 ToTensor()로 0~1값의 스케일링 된 데이터를, 표준화까지 적용하여 평균0, 분산 1로 만드는데 장점이 있는건가요??normalize = transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]) def get_dataloaders(): train_data = torchvision.datasets.CIFAR10( root="../.cache", train=True, download=True, transform=transforms.Compose([torchvision.transforms.ToTensor(), normalize]), )