묻고 답해요
130만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결딥러닝 CNN 완벽 가이드 - Fundamental 편
손실함수의 편미분에서 w의 갯수가 많을경우
안녕하세요!!다시 복습하는 중입니다...!!강의를 들으면서 궁금한건데 강의에서는 손실함수의 편미분과업데이트시 w0(바이어스)과 w1(기울기,가중치)를 예시로 들면서 설명을 해주셨는데 만약 바이어스를 제외한 w1(기울기, 가중치)의 갯수가 여러개일경우(w2, w3, w4)편미분하는 절차는 어떻게 되나요??w1만 편미분하고 업데이트 하구, w2만 편미분하고 업데이트 하는...방식인지 아니면 w1, w2, w3를 한번에? 편미분 해서 나온 값으로 업데이트 하는것인지 궁금합니다! 좋은 강의 감사합니다^^
-
해결됨Google 공인! 텐서플로(TensorFlow) 개발자 자격증 취득
슬랙초대 부탁드립니다.
ryanjihuhwang@gmail.comrichdied@naver.com초대 부탁드릴께요.
-
미해결차량 번호판 인식 프로젝트와 TensorFlow로 배우는 딥러닝 영상인식 올인원
장시간 Training이 필요한 Colab 실습 진행시 유의사항 관련 질문입니다
!python train.py \ --training_data_path="./data/ICDAR2015/train_data/" \ --checkpoint_path="/content/drive/MyDrive/Colab Notebooks/east_resnet_50_rbox"python3: can't open file '/content/train.py': [Errno 2] No such file or directory위 코드에 대해 자꾸 에러가 생기는데 해결방법을 알고 싶습니다
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Tensorflow Object Detection API를 위한 환경 설정 및 셋업하기_문의
안녕하세요.object_detection을 로컬 패키지로 잡지않고, 설치한다고 하셨습니다.그래서 DLCV/Detection/tensor_api/models/research$의 setup.py를python setup.py install 하라고 하셨는데,setup.py가 현재는 없는것 같습니다.그래서, model_builder_test.py를 python으로 컴파일 하면 No moduled .... object detection이 나옵니다.현재는 내용이 조금 바뀐것 같은데 방법이 없을까요?
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
Fine-Tuning 한 Model 을 다시 Fine-tuning 할 수 있나요?
학습 중에 궁금한 점이 생겨 질문 드립니다.fine-tuning 한 이후에 추가로 학습 시키고 싶은 dataset이 생겼을 경우,이전 학습된 peft model 을 이어서 fine tuning 을 진행 할 수 있을까요?
-
미해결수학 없이 시작하는 인공지능 첫걸음: 기초부터 최신 트렌드까지
1강 머신러닝 영문 표기 문의
1강 0:50에 머신러닝의 개념을 설명해주시는데 괄호 안에 영어가 잘못 표기된 것 같습니다.영어로 Machine Learning 이 맞나요?
-
미해결딥러닝을 활용한 자연어 처리 (NLP) 과정 (기초부터 ChatGPT/생성 모델까지)
Encoder-Decoder 실습 질문드립니다.
Encoder-Decoder 실습 질문드립니다.직접 실습을 하면서 강의영상과 실습 결과의 차이가 커서 모델 성능이 떨어져보이는데 어떤 부분을 건드려봐야할까요?
-
미해결따라하면서 배우는 3D Human Pose Estimation과 실전 프로젝트
실습2 데이터셋 질문
안녕하세요 수강생입니다.https://drive.google.com/file/d/1eeCo0WKkh1t0v6o_4lIOhR59SzKYUoX9/view?usp=share_link해당 링크에서 데이터셋을 다운받을 수 있다고 말씀주셨는데, 이 공유된 데이터셋에서는 3DHPE/datasets/data_2d_golfswing.npz, 3DHPE/datasets/data_2d_h36m_cpn_conf.npz 파일이 존재하지 않습니다.위의 두 실습 데이터셋은 어디서 받을 수 있을까요?
-
해결됨처음하는 딥러닝과 파이토치(Pytorch) 부트캠프 [데이터과학 Part3]
실제 캐글(Kaggle) 문제 풀고, 제출해보며, 성능 개선 기법 익히기2 강의에서 질문입니다
실제 캐글(Kaggle) 문제 풀고, 제출해보며, 성능 개선 기법 익히기2 강의 17:30 부분에서 질문이 있습니다. 이번 강의에서는 transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])와 같이 이미지 데이터에 Normalization을 적용하였는데요, from transformers import ViTFeatureExtractor feature_extractor = ViTFeatureExtractor.from_pretrained('google/vit-base-patch32-224-in21k') feature_extractor다음 코드와 같이 vit-base-patch32-224-in21k 모델에서 적용된 image_mean과 image_std를 확인해 보니,"image_mean": [ 0.5, 0.5, 0.5 ], "image_std": [ 0.5, 0.5, 0.5 ] 와 같이 결과가 나왔습니다. 그렇다면, 학습 데이터에 Normalization을 적용할 때에도 [ 0.5, 0.5, 0.5 ], [ 0.5, 0.5, 0.5 ] 값을 적용해야 하는 것이 아닌지 여쭙고 싶습니다. 감사합니다!
-
해결됨Google 공인! 텐서플로(TensorFlow) 개발자 자격증 취득
슬랙 초대 메일 부탁드립니다.
안녕하세요.cjdxla1004@gmail.com으로 슬랙 초대 메일 요청 드립니다. 감사합니다.
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
학습 중 궁금한 부분 문의합니다
안녕하세요 라마2에 한국어 데이터셋만 학습해도 한국어 질문 답을 하는 것을 보고 궁금해서요 한국어 데이터 셋만 학습을 해도 라마2에서 한국어를 이해하고 대답하는 건지요 그리고 예제에서 질문을 한 후 받는 대답이 너무 짧게 나오는데요 이부분은 데이터셋의 답 부분이 짧아서 그런 가요 gpt는 엄청 길게 답을 하는데 이부분이 궁금하네요
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
강의 노트가 없습니다.
강의 수강하고 있는데 동영상 강의만 있고강의 노트를 받는 곳이 없습니다.
-
해결됨딥러닝 CNN 완벽 가이드 - Fundamental 편
CIFAIR10 CNN 모델 실습 중 모델 평가에 대한 질문
안녕하세요 선생님. 강의중 12분 20초쯤에 손실값과 정확도가 둘 다 높은 상태로 보이는데, 정확도가 높으면 손실값이 낮아야하는거 아닌가요? 아무리 테스트 데이터에 대한 평가라고 해도 정확도에 비해 손실값이 너무 높은게 좀 이상해보입니다. 학습할 때는 손실값을 낮게, 정확도는 높게라는 개념이 모델을 평가할 때는 조금 다른건가요?
-
해결됨Python을 이용한 개인화 추천시스템 | 추천알고리즘 | 추천인공지능
local variable 'movie_ratings' referenced before assignment
안녕하세요, 사용자의 평가경향을 고려한 CF 의 강의 코드를 실습할 때 아래와 같은 에러 메시지가 발생합니다. UnboundLocalError Traceback (most recent call last) <ipython-input-4-93f75427a941> in <cell line: 1>() ----> 1 score(CF_knn_bias, 30) 2 frames<ipython-input-2-7b52bdfa2c05> in score(model, neighbor_size) 38 id_pairs = zip(x_test['user_id'], x_test['movie_id']) 39 # 모든 사용자 - 영화 쌍에 대해 주어진 예측 모델에 의해 예측값 계산 및 리스트형 데이터 생성 ---> 40 y_pred = np.array([model(user, movie, neighbor_size) for (user, movie) in id_pairs]) 41 # 실제 평점값 42 y_true = np.array(x_test['rating']) <ipython-input-2-7b52bdfa2c05> in <listcomp>(.0) 38 id_pairs = zip(x_test['user_id'], x_test['movie_id']) 39 # 모든 사용자 - 영화 쌍에 대해 주어진 예측 모델에 의해 예측값 계산 및 리스트형 데이터 생성 ---> 40 y_pred = np.array([model(user, movie, neighbor_size) for (user, movie) in id_pairs]) 41 # 실제 평점값 42 y_true = np.array(x_test['rating']) <ipython-input-3-d1a9c3391126> in CF_knn_bias(user_id, movie_id, neighbor_size) 10 sim_scores = user_similarity[user_id].copy() 11 movie_scores = rating_bias[movie_id].copy() ---> 12 none_rating_idx = movie_ratings[movie_ratings.isnull()].index 13 movie_ratings = movie_ratings.drop(none_rating_idx) 14 sim_scores = sim_scores.drop(none_rating_idx) UnboundLocalError: local variable 'movie_ratings' referenced before assignment구글링을 해보니 global 변수명을 설정해줘야 한다고 나오는데, 해결이 어려워서 질문 드립니다!강연자님께서 실행한 코드에서는 해당 오류가 발생하지 않아서.. 왜 제 환경에서는 변수명 에러가 발생하는지 알 수 있을까요?아래는 전체 코드 입니다. 감사합니다. import os import pandas as pd import numpy as np from sklearn.model_selection import train_test_split from sklearn.metrics.pairwise import cosine_similarity ####### 데이터 불러오기 데이터 셋 만들기 ###### base_src = 'drive/MyDrive/RecoSys/Data' # user u_user_src = os.path.join(base_src, 'u.user') u_cols = ['user_id', 'age', 'sex', 'occupation', 'zip_code'] users = pd.read_csv(u_user_src, sep = '|', names = u_cols, encoding = 'latin-1') users = users.set_index('user_id') # item u_item_src = os.path.join(base_src, 'u.item') i_cols = ['movie_id', 'title', 'release date', 'video release date', 'IMDB URL', 'unknown', 'Action', 'Adventure', 'Animation', 'Children\'s', 'Comedy', 'Crime', 'Documentary', 'Drama', 'Fantasy', 'Film-Noir', 'Horror', 'Musical', 'Mystery', 'Romance', 'Sci-Fi', 'Thriller', 'War', 'Western'] movies = pd.read_csv(u_item_src, sep = '|', names = i_cols, encoding = 'latin-1') movies = movies.set_index('movie_id') # rating u_data_src = os.path.join(base_src, 'u.data') r_cols = ['user_id', 'movie_id', 'rating', 'timestamp'] ratings = pd.read_csv(u_data_src, sep = '\t', names = r_cols, encoding= 'latin-1') # rmse def RMSE(y_true, y_pred): return np.sqrt(np.mean((np.array(y_true) - np.array(y_pred))**2)) def score(model, neighbor_size = 0): # test data user_id 와 movie_id pair 맞춰 튜플원소 리스트데이터 id_pairs = zip(x_test['user_id'], x_test['movie_id']) # 모든 사용자 - 영화 쌍에 대해 주어진 예측 모델에 의해 예측값 계산 및 리스트형 데이터 생성 y_pred = np.array([model(user, movie, neighbor_size) for (user, movie) in id_pairs]) # 실제 평점값 y_true = np.array(x_test['rating']) return RMSE(y_true, y_pred) x = ratings.copy() y = ratings['user_id'] x_train, x_test, y_train, y_test = train_test_split(x, y, test_size = 0.25, stratify = y) rating_matrix = x_train.pivot(index = 'user_id', columns = 'movie_id', values = 'rating') matrix_dummy = rating_matrix.copy().fillna(0) user_similarity = cosine_similarity(matrix_dummy, matrix_dummy) user_similarity = pd.DataFrame(user_similarity, index = rating_matrix.index, columns = rating_matrix.index) ####### 사용자 평가 경향을 고려한 함수 ######## rating_mean = rating_matrix.mean(axis = 1) # axis=1 (columns), user의 모든 평점의 평균) rating_bias = (rating_matrix.T - rating_mean).T # 해당 유저-아이템 평점 - 사용자의 평점 평균의 편차 #print(rating_bias) #사용자 평가 경향을 고려한 함수 def CF_knn_bias (user_id, movie_id, neighbor_size = 0): if movie_id in rating_bias.columns: sim_scores = user_similarity[user_id].copy() movie_scores = rating_bias[movie_id].copy() none_rating_idx = movie_ratings[movie_ratings.isnull()].index movie_ratings = movie_ratings.drop(none_rating_idx) sim_scores = sim_scores.drop(none_rating_idx) if neighbor_size == 0: prediction = np.dot(sim_scores, movie_ratings) / sim_scores.sum() prediction = prediction + rating_mean[user_id] else: if len(sim_scores) > 1: neighbor_size = min(neighbor_size, len(sim_scores)) sim_scores = np.array(sim_scores) movie_ratings = np.array(movie_ratings) user_idx = np.argsort(sim_scores) sim_scores = sim_scores[user_idx][-neighbor_size:] movie_ratings = movie_ratings[user_idx][-neighbor_size:] prediction = np.dot(sim_scores, movie_ratings) / sim_scores.sum() prediction = prediction + rating_mean[user_id] else: prediction = rating_mean[user_id] else: prediction = rating_mean[user_id] return prediction score(CF_knn_bias, 30)
-
미해결딥러닝 CNN 완벽 가이드 - Fundamental 편
VGG_Practice 실습예제 accuracy 계산값이 이상합니다.
현재 오픈된 커리큘럽 강의 소개 및 실습 환경에서 주피터 노트북 에제파일 다운로드 받아서 실행하였습니다.이상한 점은 VGG16 모델 생성 후 학습 및 성능 검증 cell 실행결과 cal_accuracy가 0.1정도 나오는데 값이 너무 낮은 것 같습니다.동영상 강죄에서 교수님이 보여주신 결과는 0.85 정도 나오는데 을 원인을 모르겠습니다.예제파일상의 어떤 부분이 문제인지 확인부탁드립니다. 감사합니다.
-
미해결[딥러닝 전문가 과정 DL1101] 딥러닝을 위한 파이썬 레벨1
슬랙 커뮤니티 신청법
다른 분들이 댓글 남겨주신 것을 보니 슬랙에서 커뮤니티가 있는 것 같은데 어떻게 참여할 수 있을까요??메일은 seongji.jo@thinkingwolf.co.kr 입니다 추가로 지금 파이썬 1 강의를 듣고 있는데 파이썬 연산이 실제 값과 차이가 있다고들 하던데 저도 예제를 풀면서 값이 피피티 슬라이드와 다르게 나오네요. 해결법이 있을까요??score1, score2, score3 = 10, 20, 30n_student = 3score_mean = (score1 + score2 + score3) / n_studentsquare_of_mean = score_mean**2mean_of_square = (score1**2 + score2**2 + score3**2) / n_studentscore_variance = mean_of_square - square_of_meanscore_std = score_variance**0.5score1 = (score1 - score_mean) / score_stdscore2 = (score2 - score_mean) / score_stdscore3 = (score3 - score_mean) / score_stdscore_mean = (score1 + score2 + score3) / n_studentsqure_of_mean = score_mean**2mean_of_square = (score1**2 + score2**2 + score3**2) / n_studentscore_variance = mean_of_square - square_of_meanscore_std = score_variance**0.5 print("평균: ", score_mean)print("표준편차: ", score_std)표준편차가 1로 나오지 않습니다!평균: 0.0 표준편차: (1.223115032695291e-15+19.974984355438178j)
-
해결됨Python을 이용한 개인화 추천시스템 | 추천알고리즘 | 추천인공지능
3장 CF_knn 코드 질문
안녕하세요 좋은 강의 감사합니다. (1) 코드 주석 관련 질문3장.ipynb 코드에서 def CF_knn(user_id, movie_id, neighbor_size = 0): if movie_id in rating_matrix.columns: sim_scores = user_similarity[user_id].copy() movie_ratings = rating_matrix[movie_id].copy()~~ 위 부분의 강의 중 코드 주석을 보면 movie_ratings = rating_matrix[movie_id].copy()이 부분의 주석이 주어진 영화와 다른 사용자의 유사도 추출이라고 되어있는데 영화와 사용자 유사도 추출이 아니라 주어진 영화에 대한 다른 사용자의 평점 추출 같은데 제가 이해한게 맞는지 문의드립니다!(2) 코드 질문neighbor_size 가 지정되지 않은경우 mean_rating 으로 대치하는 부분의 코드에서if neighbor_size == 0 :mean_rating = np.dot(sim_scores, movie_ratings) / sim_scores.sum()이라고 되어있는데mean_rating 이 전체 user_id의 해당 movie_id에대한 평균 평점을 의미하는 것이라면 분모가 sim_scores.sum()이 아니라 유효한 평점의 개수, 즉 len(sim_scores) 이런 게 되어야 하는거 아닌가요?왜 분자는 평점*유사도인데 나눌때 전체 사용자의 평점 합으로 나누는건지 이해가 잘 안갑니다. ㅜㅜ.
-
해결됨처음하는 딥러닝과 파이토치(Pytorch) 부트캠프 [데이터과학 Part3]
RNN과 LSTM 구현해보기2(MNIST 데이터셋) 강의에서 질문입니다
RNN과 LSTM 구현해보기2(MNIST 데이터셋) 강의의 15:04 부분에서 질문입니다. 강의에서는 다음과 같이 학습 과정에서 반복문을 작성했습니다. # |x_minibatch| = (128, 1, 28, 28) # |y_minibatch| = (128) for x_minibatch, y_minibatch in train_batches: x_minibatch = x_minibatch.reshape(-1, sequence_length, feature_size) y_minibatch_pred = model(x_minibatch) loss = loss_func(y_minibatch_pred, y_minibatch) optimizer.zero_grad() loss.backward() optimizer.step() train_losses.append(loss.item()) 이때, 아래와 같이 loss_func를 적용하는 부분에서 궁금한 점이 있는데요,loss = loss_func(y_minibatch_pred, y_minibatch)y_minibatch_pred 는 model에 x_minibatch 를 넣어서 값을 예측한 것으로, 그 shape이 (128, 10) 과 같이 2차원으로 나온다고 이해하였습니다.반면, y_miinibatch 는 (128) 과 같이 1차원으로 나오는 것을 확인했습니다. 이렇게 loss_func 안에 넣는 두 텐서의 다른 것으로 보이는데, y_minibatch의 shape을 변형해 줘야 하는 것은 아닌지 여쭙고 싶습니다..!
-
해결됨모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
패키지 버전 궁금합니다
안녕하세요!혹시 본 강의에서 사용하신 모든 라이브러리 버전을 알 수 있는 방법이 있을까요?개인적으로 도커를 통해서 학습을 진행중인데, 버전에 따라 발생하는 에러가 있는거 같아서 문의드립니다. 감사합니다.
-
해결됨모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
[질문] Llama2 Autotrain 작동 시
ERROR train has failed due to an exception: TypeError: LlamaForCausalLM.__init__() got an unexpected keyword argument 'use_flash_attention_2'안녕하세요, Autotrain library를 활용하여 fine-tuning 중 아래와 같은 에러가 발생하였는데요. 혹시 어떻게 해결할 수 있을지 궁금합니다. 제 환경에 필요한 정보가 필요하시다면 언제든지 말씀드리겠습니다.감사드립니다.