묻고 답해요
161만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결구현하며 배우는 Transformer
멀티 헤드 셀프 어텐션에서 Wq, Wk, Wv의 구조 관련 질문
후반부 슬라이드 그림에 Wq, Wk, Wv 하나로 계산이 되어 헤드별로 나누어진다는 표현같이 보이는데, 오해의 소지가 있는것 같습니다. 만약 Wq, Wk, Wv가 멀티 헤드의 각각의 Wq, Wk, Wv가 concat된 것을 의미한다면 틀린것은 아니지만 그건 구현의 편의 문제이고 적어도 이 슬라이드에서는 Q, K, V가 하나의 Wq, Wk, Wv에서 계산이 되어 나누어진다는것은 혼란을 줄것 같습니다.
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 해설 강의
누적입력에서 겹치는 방식으로 넘어간 이유
앞 텍스트들로 다음 단어 하나를 예측한다고 했는데, 왜 슬라이딩 윈도에서는 입력과 타깃이 겹쳐져있는건가요?또한 앞 텍스트부터 누적한 다음, 타깃 한 단어만 예측하는 것으로 이해했습니다. 왜 4개씩 나누는 것인지 궁금합니다.왜 갑자기 슬라이딩 윈도우로 넘어간것인지 그 중간단계가 이해되지 않습니다.
-
미해결알고리즘 트레이딩의 비밀, AI가 주가를 맞추는 법
주가 예측 정확도
안녕하세요. 해당 강의 잘 들었습니다.예측치의 정확도에 대한 의견을 여쭈어보고 싶습니다.강의에서 보면 AI에서 90%가 넘으면 정확도가 높은거라고 하셨지만. 시계열 데이터의 특성상 7일후의 데이터를 예측하지 않고, 오늘 주가를 그냥 사용해도 정확도를 계산해 보면 90%가 넘는 경우가 많습니다.예를 들어 경제 지표로 학습을 수행하지 않고도, +7일후의 예측값에 오늘 주가를 넣어 Accuracy를 구해 보면, 오라클의 경우 97%가 나옵니다. 반면 Transformer를 이용하여 학습한 경우 정확도가 94%입니다.이런 상황이라면 과연 AI의 학습을 통한 주가 예측이 어떤 의미를 가지는지 잘 모르겠습니다.다양한 경제 데이터를 API를 통해 수집하거나 Transformer를 이용하여 학습하는 형태의 기본 골자를 익혀서 좋은 경험이었으나.정확한 주가 예측을 위해 여러가지 개선이 있어야 할것 같습니다.경제 지표와 더불어 주가 데이터를 캔들로 표현하고 급등 패턴을 학습하는 것은 어떻게 생각 하시나요? 현재 다른 예측 프로그램은 어떤 방식을 사용하는지 궁금합니다.
-
미해결알고리즘 트레이딩의 비밀, AI가 주가를 맞추는 법
섹션4의 10강 질문이 있습니다.
train_size = int(len(data) * 0.8) train_data = data.iloc[:train_size] test_data = data.iloc[train_size:] 훈련과 테스트 8:2로 잘 나누고for i in range(lookback, len(data_scaled) - forecast_horizon):이렇게 돌리면 그냥 전체 데이터를 학습한거 아닌가요? 결국 안나누고 학습한 것 같은데, 그럼 이 프로젝트는 그냥 데이터를 모두 학습한거죠?LR 버전으로 리팩토링해서 돌려보고 있는데 과적합뜨는 것 보니까 그냥 완전 똑같이 나오더라구요.
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 완독 챌린지
죄송합니다. 해설 강의 관련 문의드립니다..!
안녕하세요-! 늦게 챌린지 공부 시작했지만 할 수 있는 만큼 하고 싶어 인프런 강의 열심히 들었습니다.해설강의 공지를 매우 늦게 확인해 이메일을 확인해보니 스팸함, 다 확인해봐도 메일은 못 받았습니다ㅠ그럼에도 공지를 확인했어야 했는데, 제가 확인이 늦어 제 잘못이기는 하나 혹 가능하다면 해설 강의 저도 듣고 싶습니다..!!복습하면서 부족한 부분 채우며 공부하고 싶은데 혹시혹시 가능한 방법이 있을지 문의드립니다ㅠ! 감사합니다!
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 해설 강의
인증 하는 방법
안녕하세요 챌린지 열심히 하고 있는 수강생입니다다름이 아니라 이 챌린지를 성공하면 길벗 포인트를 받을 수 있다고 본 거 같은데혹시 4장부터는 인증을 어떻게 해야하는 지 궁금합니다!
-
해결됨<대규모 언어 모델, 핵심만 빠르게!> 완독 챌린지
쿠폰관련 문의
첼린지를 처음하다보니 쿠폰기간을 놓쳤습니다. 메일로 다시 보내주실수 없는지 문의드립니다. 번거롭게해서 죄송합니다. 머신러닝과 대규모 언어모델 둘다 신청했습니다.
-
해결됨<대규모 언어 모델, 핵심만 빠르게!> 완독 챌린지
쿠폰등록 관련입니다.
<대규모 언어 모델, 핵심만 빠르게!> 강의의 무료 쿠폰 발급 링크와 <밑바닥부터 만들면서 배우는 LLM> 강의의 50% 할인 쿠폰 발급 링크가 인프런에 등록된 이메일로 전달됩니다.이메일로 링크가 없어서 문의드립니다.woong2241@naver.com 입니다. 확인부탁드립니다. 감사합니다^^!항상좋은강의감사합니다
-
미해결구현하며 배우는 Transformer
MLM, NSP 구현 여부
안녕하세요 강사님.BERT 학습 파트와 관련하여 궁금한 점이 있어 질문드립니다. 현재 IMDB 데이터를 활용한 긍/부정 분류 학습 과정만 구현되어 있는 것으로 보이는데, 혹시 MLM이나 NSP를 통한 BERT의 초기 pre-training 과정은 포함되어 있지 않은 것인지 궁금합니다.제가 혹시 놓친 부분이 있다면 죄송합니다. 확인 부탁드립니다. 감사합니다.
-
미해결구현하며 배우는 Transformer
bert encoding input_ids.size(1)에 대하여
안녕하세요 강사님.BERT 관련 강의를 매우 유익하게 듣고 있습니다. Embedding 파트를 학습하던 중 궁금한 점이 생겨 질문드립니다.BERTEmbeddings 클래스 구현에서 초기화 시 max_len이 주어지는데, forward 단계에서는 input_ids.size(1)을 사용해 position embedding의 인덱스를 다시 정의하는 과정이 있습니다. 제가 이해한 바로는 이후 tokenizer에서 설정한 max_length와 실제 입력 길이가 달라질 수 있기 때문에 이러한 처리가 필요한 것으로 보였습니다. 혹시 강사님께서 강의 시 빠른 실행을 위해 tokenizer의 max_length를 모델의 max_len과 다르게 설정하셨기 때문에 해당 코드를 넣으신 것인지 궁금합니다. 일반적인 학습 환경에서는 tokenizer의 max_length와 모델의 max_len을 동일하게 맞추는 것이 자연스러울 것 같은데, 혹시 제가 놓친 부분이 있다면 설명해주시면 감사하겠습니다.
-
미해결구현하며 배우는 Transformer
트랜스포머 학습 강의
안녕하세요, 강사님.강의 잘 듣고 있습니다. 한 가지 궁금한 점이 있는데요, 트랜스포머 Seq2Seq 모델은 구현까지만 되어 있고 학습 과정에 대한 강의는 없는 것 같습니다. 혹시 BERT나 MarianMT 모델의 학습만 포함되어 있는 것인지 여쭤보고 싶습니다. 감사합니다.
-
해결됨<대규모 언어 모델, 핵심만 빠르게!> 완독 챌린지
쿠폰등록관련 문의드립니다
안녕하세요메일 확인이 늦어서 쿠폰 적용을 못했습니다. 수동 등록으로 해주신다고 하여 Q&A로 남깁니다.등록 부탁드립니다
-
해결됨<대규모 언어 모델, 핵심만 빠르게!> 완독 챌린지
강의 쿠폰 관련 질문
안녕하세요. 챌린지 수강자입니다. 오픈채팅방에서 문의 드렸었는데...메일확인이 늦어 쿠폰등록기간이 만료되었습니다.챌린지 둘다(대규모 언어모델, 머신러닝)문의 드립니다. 감사합니다.
-
해결됨<대규모 언어 모델, 핵심만 빠르게!> 완독 챌린지
전자책 인증 관련문의
구매내역 인증캡처 올리면 될까요?
-
미해결알고리즘 트레이딩의 비밀, AI가 주가를 맞추는 법
세션 3까지 듣고 궁금한점이 있어 문의 드립니다,
예제로 만들어주신 데이터에서 추가적으로 데이터를 변경하여 테스트를 하고 싶은데요 아래 데이터를 가져 올 수 있을가요?Fred에서 제공하는 지표 코드Yahoo 에서 제공하는 지표와 티커나스닥 100의 티커 해당 정보를 어떻게 가져오는지 알아야 추후- 응용하면서 사용할 수 있을것 같습니다. 감사합니다.
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 해설 강의
7장 3절 이후는 언제 올리나요?
곧 7장을 들어가는데 7장 2절까지만 강의가 있고 그 이후에는 아직 없는 것 같아서 7장 2절 이후의 강의는 언제 올리는 지 궁금해서 문의 드립니다
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 완독 챌린지
해설강의 쿠폰 가능할까요??
안녕하세요.저도 본강의를 수강하다 놓치게 되어 연락드렸습니다. 혹시 가능하다면 감사하겠습니다!
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 해설 강의
2.2 텍스트 토큰화 하기 강의 질문
영상 초반에서 말씀하시는 "이전 영상"이 어떤 영상인지 궁금합니다.
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 완독 챌린지
해설강의 쿠폰 놓쳤는데, 재발급 가능할까요?
챌린지 본 강의만 보다보니..해설강의 쿠폰을 놓쳤네요. 혹시 재발행 가능할까요?고객센터에 문의해도 답이 없어서 게시판 찾아서 질문 남겨봅니다.확인 부탁드립니다.
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 완독 챌린지
<CH 4.1> "LLM구조 구현하기" 장 마지막의 Logits 차원에 대한 문의
제 4장 강의를 듣다 보면 강사님께서 강조하시는 말씀 중에 "입력 차원과 출력 차원은 같아야 하고 768차원이다"라는 게 있습니다."4.1장. 구조 구현하기"에 나오는 예제 코드의 마지막 부분을 보면 아래와 같이 나와 있습니다.torch.manual_seed(123) model = DummyGPTModel(GPT_CONFIG_124M) logits = model(batch) print("출력 크기:", logits.shape) print(logits)차원을 살펴보면 마지막 차원이 768차원이 아니라 50257로 나오는데요(즉, [2 , 4, 50257]).txt1 = "Every effort moves you" txt2 = "Every day holds a"토크나이저에서 위 텍스트를 인덱싱한 후 DummyGPTModel 클래스의 인스턴스에 넘겨주면 768차원이 나와야 하는 게 아닌 지 궁금합니다.참고로, 3장 끝 부분 "멀티헤드어텐션" 전까지는 수월하게 강의를 한 번만 듣고 책으로 복습해도 수월하게 이해 됐는데, 점차 어려워지네요^^;;;