묻고 답해요
164만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
from torchvision.models.resnet import model_urls 에러
첨부된 9-5 ipynb 에 resnet weight 를 불러올 때 from torchvision.models.resnet import model_urls에서 오류가 나와 찾아보니 torchvision 0.13 버전 이후에model_urls 는 없어졌다고 하네요. https://github.com/pytorch/vision/blob/main/torchvision/models/resnet.py 아래와 같이 해결을 해보았습니다.from torchvision.models.resnet import ResNet50_Weights checkpoint = load_state_dict_from_url(ResNet50_Weights.IMAGENET1K_V2.url)
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
섹션 6. Partial Diffentiation 예시
12 page 2번째 문재에서 x1 에 대해 미분할 때 log(x2) 항은 사라져야하는 것이 맞죠?그리고 x2 에 대해 미분할 때는 sin(x1) 항이 사라져야하는 것이 맞죠?
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
Google Drive 에서 Colaboratory 항목이 안보이는 경우
연결할 앱 더보기에서 검색해서 연결을 해주면 됩니다
-
미해결모두의 한국어 텍스트 분석과 자연어처리 with 파이썬
감성분석
강사님 안녕하세요. 책보면서 강의 열심히 듣고 있습니다. 제가 한국어 텍스트 감성분석을 프로젝트로 하고 싶은데요.현 강의 목차에는 감성분석이 없더라고요.제가 놓친 걸까요?이번 강의에서 감성분석을 다루는 부분이 있다면 알려주시면 감사하겠습니다.아직 없다면, 감성분석 강의도 듣고 싶습니다.항상 감사합니다:)!
-
미해결차량 번호판 인식 프로젝트와 TensorFlow로 배우는 딥러닝 영상인식 올인원
강의에서 제공받은 h5 파일을 적용할때 결과가 나빠지는 이유가 뭘 까요?
pipeline = keras_ocr.pipeline.Pipeline() images = [ keras_ocr.tools.read('42.jpg') ] prediction_groups = pipeline.recognize(images) fig, ax = plt.subplots(figsize=(20, 20)) image, predictions = images[0], prediction_groups[0] keras_ocr.tools.drawAnnotations(image=image, predictions=predictions, ax=ax) plt.show()이렇게 했을때 결과값은 이런데강의에서 제공받은 h5을 사용하면 어노테이션을 전혀 그리지 못합니다.import matplotlib.pyplot as plt import keras_ocr detector = keras_ocr.detection.Detector() detector.model.load_weights('detector_carplate.h5') recognizer = keras_ocr.recognition.Recognizer() recognizer.model.load_weights('recognizer_carplate.h5') pipeline = keras_ocr.pipeline.Pipeline(detector=detector, recognizer=recognizer, scale=1) images = [ keras_ocr.tools.read('42.jpg') ] prediction_groups = pipeline.recognize(images) fig, ax = plt.subplots(figsize=(20, 20)) image, predictions = images[0], prediction_groups[0] keras_ocr.tools.drawAnnotations(image=image, predictions=predictions, ax=ax) plt.show()이런식으로 ocr 결과값이 잘 수행되지 않는데 어떤 원인들이 있을까요?
-
미해결모두의 한국어 텍스트 분석과 자연어처리 with 파이썬
해당 강의 내용 영문에 적용하는 방법
한국어 분석 말고, 영어 분석은 어떻게 다른지 업데이트 해주 실수 있을까요?
-
미해결모두의 한국어 텍스트 분석과 자연어처리 with 파이썬
PDF기준으로 LLM에게 답변/요약을 요청할때 가능한 방법 문의
여러개의 pdf 파일기준으로 LLM에게 답변하거나 요약하라고 할때pdf 데이터를 vectordb에 임베딩하여 조회하는 방법만 알고있었는데 pdf를 txt로 변환후에 langchain 함수를 이용하고 vectordb를 이용하지 않아도LLM이용하여 답변이 가능하던데요. 어떤게 좋은 방법일까요?from langchain.chains.question_answering import load_qa_chainfrom langchain.chains import AnalyzeDocumentChainqa_chain = load_qa_chain(model, chain_type="map_reduce")qa_document_chain = AnalyzeDocumentChain(combine_docs_chain=qa_chain) 데이터가 많으면 vectordb를 쓰고, 많지 않으면 langchain 함수를 이용하는건가요?다른 방법은 또 어떤게 있을까요?
-
해결됨차량 번호판 인식 프로젝트와 TensorFlow로 배우는 딥러닝 영상인식 올인원
크래프트 모델 다운 못받는 이유가 있을까요?
h5 모델 둘 다 같은 경로에 있는데 왜 이런걸까요?
-
미해결예제로 배우는 딥러닝 자연어 처리 입문 NLP with TensorFlow - RNN부터 BERT까지
9강 BERT 실습 예제 코드
혹시 9강 BERT 실습 예제 코드는 어디서 볼 수 있을까요? 기존 강의들은 강의 노트 뒤에 있었는데 BERT 예제는 보이지 않아서요 ㅠㅠㅠ
-
미해결실리콘밸리 엔지니어와 함께하는 랭체인(LangChain)과 랭그래프(LangGraph) 그리고 MCP
주어진 코드를 그대로 실행 해 보았는데 결과가 달라요
git에서 코드를 다운받아 영상에 올라온 대로 코드를 실행 해 보았는데 저는 결과가 다음과 같아요. Question: Who was the father of Mary Ball Washington?Are follow up questions needed here: Yes.Follow up: Who was the husband of Mary Ball Washington?Intermediate answer: The husband of Mary Ball Washington was Augustine Washington.Follow up: Who was the father of Augustine Washington?Intermediate answer: The father of Augustine Washington was Lawrence Washington.So the final answer is: Lawrence Washington 처음엔 계속 Are follow up questions needed here: 에서 답변이 No로 출력 되고 질의가 끝나다가, 계속 돌려보니까 저런 틀린 답변을 내주는데, 이건 모델을 잘못 선택하기 때문일까요? 모델 설정에 따로 건드린 것이 없어 자동으로 GPT3.5 Trubo를 선택하는데 해당 강의 촬영시점과 수강시점 간에 기본이 되는 모델이 바뀐걸까요? 왜 이렇게 되는걸까요? ㅜㅜ
-
미해결[PyTorch] 쉽고 빠르게 배우는 NLP
batch size 질문이 있습니다!
안녕하세요. 좋은 강의 열어주셔서 감사합니다.batch size를 크게할 경우 학습속도가 더 빨라질것 같은데, 맞나요? batch size와 모델 성능과의 상관관계도 있을까요?
-
미해결차량 번호판 인식 프로젝트와 TensorFlow로 배우는 딥러닝 영상인식 올인원
한국번호판 머신러닝
안녕하세요~한국 번호판도 OCR 인식이 가능할까요?데이터셋에 필요한게 무엇이 있을까요? 한국 번호판은 생성을 했는데..groundtruth.csv 파일도 필요할까요?
-
미해결차량 번호판 인식 프로젝트와 TensorFlow로 배우는 딥러닝 영상인식 올인원
CRNN_license_plate_data_fine_tuning_example_solution.ipynb 코랩 url 알려주세요.
pdf에 없는거 같아요.영상시작할때도 페이지 열려있는 상태에서 시작해서들어가는 방법을 모르겠구요.그리고 차량번호판 OCR때문에 영상듣는건데전체 프로젝트 파일은 따로 없는 건가요?
-
미해결차량 번호판 인식 프로젝트와 TensorFlow로 배우는 딥러닝 영상인식 올인원
장시간 Training이 필요한 Colab 실습 진행시 유의사항 관련 질문입니다
!python train.py \ --training_data_path="./data/ICDAR2015/train_data/" \ --checkpoint_path="/content/drive/MyDrive/Colab Notebooks/east_resnet_50_rbox"python3: can't open file '/content/train.py': [Errno 2] No such file or directory위 코드에 대해 자꾸 에러가 생기는데 해결방법을 알고 싶습니다
-
미해결딥러닝을 활용한 자연어 처리 (NLP) 과정 (기초부터 ChatGPT/생성 모델까지)
Encoder-Decoder 실습 질문드립니다.
Encoder-Decoder 실습 질문드립니다.직접 실습을 하면서 강의영상과 실습 결과의 차이가 커서 모델 성능이 떨어져보이는데 어떤 부분을 건드려봐야할까요?
-
미해결예제로 배우는 딥러닝 자연어 처리 입문 NLP with TensorFlow - RNN부터 BERT까지
Bert 관련 문의
Bert 분류 모델을 생성 후에 해당 모델을 가지고 서비스를 하고 있습니다. 몇 가지 테스트하다 보니, 동일 input에 대해 해당 모델의 예측값이 계속 변하는거 같네요. transformer 모델은 모델이 생성된 이후에도 지속적으로 모델이 업데이트가 되게 되나요?혹시 업데이트를 못 하게 설정도 가능한지 문의드립니다.
-
미해결딥러닝을 활용한 자연어 처리 (NLP) 과정 (기초부터 ChatGPT/생성 모델까지)
030_IMDB_movie_reviews.ipynb 파일에서 사용하는 train sentences 와 test sentences는 왜 둘다 25000으로 갯수가 똑같나요?
안녕하세요. 수업 잘 듣고 있습니다. Sentiment analysis - IMDB - part1 수업자료에서 질문이 있습니다. 지금까지 머신러닝을 배워 일하다가 llm 모델을 사용하기 시작해서 수업을 듣고있는데, 보통 머신러닝에서는 training data의 비중이 test data보다 크잖아요. (0.75:0.25 / 0.8:0.2 등등). 그런데 이 파일에서 training sentence와 test sentence의 크기가 똑같던데, 대부분의 경우 같은건가요? 그렇다면 이유는 뭔가요?
-
미해결딥러닝을 활용한 자연어 처리 (NLP) 과정 (기초부터 ChatGPT/생성 모델까지)
Simple Chatbot 만들기 질문입니다.
안녕하세요, 'Simple Chatbot 만들기' 관련하여 진행하다가 문의드립니다.새롭게 최신 학습용 zip 파일을 다운받아서, 콜랩에서 해당 실습 파일 올리고, 바로 전체 셀 실행 테스트 해도,질문에 대한 답변이, 계속 같은 답변으로만 나오고 있는 증상입니다.sentencepiece 같은 모듈 설치시, 시간이 지나, 버전 차이로 인한 문제일까요?이상입니다.
-
미해결차량 번호판 인식 프로젝트와 TensorFlow로 배우는 딥러닝 영상인식 올인원
오토인코더 sigmoid
오토인코더 예시에서 ReLu대신에 sigmoid를 사용하는 이유는 무엇인가요?
-
미해결[NLP] IMDB 영화리뷰 감정 분석을 통한 파이썬 텍스트 분석과 자연어 처리
word2vec 질문
for review in train["review"]: sentences += KaggleWord2VecUtility.review_to_sentences(review, remove_stopwords=False) for review in unlabeled_train["review"]: sentences += KaggleWord2VecUtility.review_to_sentences(review, remove_stopwords=False)섹션2 word2vec에서는 다음과 같이 train data와 unlabeled train data를 합쳐서 사용하고 있습니다. 각각 일부를 출력했을때 서로 다른 데이터로 보입니다. 이 데이터들을 사용해서 word2vec을 만들어주는데 word2vec에서 사용하는 단어의 개수를 늘려주기 위함인가요?