묻고 답해요
161만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 완독 챌린지
강의 쿠폰 관련 문의드립니다.
안녕하세요 강사님, 공지를 늦게 확인하고 쿠폰을 확인하지 못해 문의 남깁니다.이전 문의 글들을 보니 가입한 이메일로 지난주 및 이번주에 쿠폰이 지급될 것이라 안내 해 주셨더라구요.하지만 저 같은 경우 지난주에도 메일이 오지 않았고 현재도 수신된 메일이 없기에 확인할 수 있는 방법이 있을지 문의 드립니다.감사합니다!
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 완독 챌린지
p63 질문
안녕하세요.교재 63페이지에 “다음으로 조금 더 흥미로운 텍스트 구절을 만들기 위해 데이터셋에 있는 처음 50개 토큰을 삭제합니다.”라는 문장이 있습니다.이때 ‘흥미로운’이라는 표현이 어떤 의미를 가지는지, 그리고 텍스트를 더 흥미롭게 만들기 위해 앞의 50개 토큰을 삭제하는 이유가 무엇인지 궁금합니다.또한 다른 LLM 모델에서도 이와 같은 전처리 과정을 수행하는지, 만약 수행한다면 그 이유가 궁금합니다.감사합니다.
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 완독 챌린지
주차별 진도 확인하는거 어디에 있는지 알수있을까요?
추석이 쭈욱 지나가서 ㅠㅠ 2주차에는 무엇을해야할까요??카카오오픈채팅방도 있다던데 어디서 확인 할 수 있는지 알고싶습니다.
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 깃허브 + 보너스 콘텐츠 해설
챕터 4 밑바닥부터 GPT 모델 구현하기 강의 업로드 문의드립니다.
챕터 4 밑바닥부터 GPT 모델 구현하기 강의가선택해도 강의가 나오지 않는 것은, 아직 등록이 되지 않아서 그런건지 문의드립니다.
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 완독 챌린지
임베딩 초기화
책과, 강의에서 임베딩을 초기화 하는 방법에 대해서 자세히 설명이 되지 않은 것 같습니다. 책에서는 재현가능하도록 하기 위해 랜덤시드를 사용한 것 같은데, 최근 트랜드는 어떤 방법을 사용하는지 궁금합니다
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 완독 챌린지
오타 발견했어요 >_<
강의와는 상관없지만, 번역자님의 강의라서 표시해봅니다. 249페이지model_state_dict = troch.load("review_classifier.pth, map_location=device")-->model_state_dict = troch.load("review_classifier.pth", map_location=device) 255페이지 url 에 오타 rickipark -> rickieparkurl = ( 'https://raw.githubusercontent.com/rickiepark/llm-from-scratch' '/main/ch07/01_main-chapter-code/instruction-data.json')
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 완독 챌린지
8강 부터는 영상이 안나오는게 정상인가요?
8강 부터는 영상이 안나오는게 정상인가요?
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 완독 챌린지
쿠폰 재발급
안녕하세요. 연휴에 공지 확인을 제대로 못해서 쿠폰 등록을 놓쳤는데, 혹시 재발급 가능할까요?
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 완독 챌린지
2.1 단어 임베딩 이해하기에서 차원 얘기에서
7:40초 즈음에 GPT3가 768 차원이라고 하셨는데 책에는 GPT2가 768차원 , GPT3가 12,288차원인데 어떤 설명이 맞는걸까요
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 완독 챌린지
4장 강의는 아직 업로드가 안된걸까요?
추석 연휴에 완독 목표로 하루에 한장씩 도전중입니다.4장부터는 강의가 안보이는데, 아직 등록이 안된걸까요?
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 완독 챌린지
코드 2-3 출력 결과 비교
안녕하세요.코드 2-3의 SimpleTokenizerV1을 실행한 결과에 대해 문의드립니다.아래 코드를 실행해보니 원문 text와 decode로 복원한 text가 조금 다릅니다.원문과 복원한 text가 다르면 문제가 있을지 문의드립니다.class SimpleTokenizerV1: def __init__(self, vocab): self.str_to_int = vocab self.int_to_str = {i:s for s,i in vocab.items()} def encode(self, text): preprocessed = re.split(r'([,.:;?_!"()\']|--|\s)', text) # 'hello,. world' preprocessed = [ item.strip() for item in preprocessed if item.strip() ] ids = [self.str_to_int[s] for s in preprocessed] return ids def decode(self, ids): text = " ".join([self.int_to_str[i] for i in ids]) # 구둣점 문자 앞의 공백을 삭제합니다. text = re.sub(r'\s+([,.?!"()\'])', r'\1', text) return text tokenizer = SimpleTokenizerV1(vocab) text = """"It's the last he painted, you know," Mrs. Gisburn said with pardonable pride.""" ids = tokenizer.encode(text) print(text) print(ids) print(tokenizer.decode(ids)) "It's the last he painted, you know," Mrs. Gisburn said with pardonable pride. [1, 56, 2, 850, 988, 602, 533, 746, 5, 1126, 596, 5, 1, 67, 7, 38, 851, 1108, 754, 793, 7] " It' s the last he painted, you know," Mrs. Gisburn said with pardonable pride.
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 완독 챌린지
10월 6일 코드해서 쿠폰 일괄 지급 문의드립니다.
<밑바닥부터 만들면서 배우는 LLM> 코드 해설 강의 (10월 6일 무료 쿠폰 일괄 지급)쿠폰은 어디서 확인하면 되는지 문의드립니다.
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 깃허브 + 보너스 콘텐츠 해설
슬라이딩 윈도우를 위해 for Loop 만들시 stride 관련 질문
Chapter2에서 슬라이딩 윈도우 만들때 stride를 128로 했는데요, 타깃은 인풋 마지막 토큰의 다음번째 토큰을 예측 하기 위해 for문을 돌면서 첫번째 타깃은 2번째 토큰, 다음은 3번째 토큰.. 이런식으로 되는걸로 아는데 갑자기 128로 건너 뛰는 이유는 무엇인지요?
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 완독 챌린지
LLM 도서 구매
LLM 도서구매는 개별적으로 하면 되는지요?