묻고 답해요
156만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결알고리즘 트레이딩의 비밀, AI가 주가를 맞추는 법
국내시장용으로 제작하려면 어떻게 해야하나요?
안녕하세요, 수업 잘 듣고 있습니다.아직 초반이지만, 오직 미장에 초점이 맞춰져 있어서 국장에는 적용을 하기 위해 어떻게 변화를 주어야 할지 모르겠습니다.파이썬이나 이런 프로그램 사용에 있어 초보라 무지한데 국내 시장용으로 제작을 하려면 API키를 어디서 가져와야 정확한지, 지표는 모든 지표를 국내에 맞게 어떻게 가져오고 수정해야 하는건지 잘 모르겠습니다. 수강전 문의란에서 국내 시장에 적용하고 싶은 다른 문의자 분을 보았습니다.답변에 강의를 들으면 충분히 국장에도 적용 가능할거라고 해서 구입했는데 어려워보여요...혹시 국내 시장에 맞추기 위해서는 어떻게 해야하는지 국내용 강의를 제작해주실 예정은 없나요? 혹은 첨부된 Github파일에서 어떻게 수정해야 하는지 도움을 주실 수 있을까요? 미국 시장과 국내 시장 모두 적용하고 싶은 저와 같은 사람들이 많이 있을텐데 국내시장 적용도 도와주시면 감사하겠습니다.
-
미해결알고리즘 트레이딩의 비밀, AI가 주가를 맞추는 법
feature 질문 드립니다.
강사님 안녕하세요, 수강자 입니다. 다름이 아니라, ta 라이브러리를 사용하여, MACD라든지 RSI지수라든지 이런것들은 따로 안넣고 그냥 경제지표와 OHLCV값만 가지고 예측을 하는가요? 의미 있는 지수를 넣으면 성능이 더 좋아질거 같은데 어떤걸 넣으면 좋을지 모르겠네요!
-
해결됨알고리즘 트레이딩의 비밀, AI가 주가를 맞추는 법
노션 및 수업자료(코드) 다운로드는 어떻게 하나요?
노션 및 수업자료(코드) 다운로드는 어떻게 하나요?
-
미해결딥러닝 이론 + PyTorch 실무 완전 정복
섹션12 실습코드 의 initialization 각각 적용 코드 문의
실습코드에서 초기화 각각 적용 부분 self._init_weights(self.fc_layers[0], mode='kaiming') self._init_weights(self.fc_layers[1], mode='kaiming') self._init_weights(self.fc_layers[2], mode='xavier') 모델을 읽어보면 NeuralNetwork( (fc_layers): Sequential( (0): Linear(in_features=784, out_features=196, bias=True) (1): ReLU() (2): Linear(in_features=196, out_features=49, bias=True) (3): ReLU() (4): Linear(in_features=49, out_features=10, bias=True) (5): Sigmoid() ) ) 0, 2,4 번에 초기화를 적용해야 실제 작동을 할 것 같습니다.
-
해결됨알고리즘 트레이딩의 비밀, AI가 주가를 맞추는 법
주식 종목 추가
테슬라나 팔란티어도 주식 추가 해보고싶습니다 만약 2006년도부터 쭉 데이터를 학습한다고 가정했을 경우, 테슬라나 팔란티어는 데이터가 있는 날부터 학습하게 하려면 어떻게 해야하는지 궁금합니다그리고 계속 일주일마다 제 컴퓨터에서 새로 stock.py를 하나 돌리고 난뒤, total.csv를 업로드하고 주가예측하기 colab을 돌리는게 맞나요?그 다음 강의 기다리고있습니다 언제쯤 나오는지 궁금합니다. 자동화는 컴퓨터를 켜놓지 않더라도 자동으로 돌아가게 가능하면 너무 좋을 것 같습니다 그리고 수수료나 과매수,과매도 등 여러 요인들을 고려하여 매수매도 하게끔 되면 좋을 것 같습니다. 저보다 잘 아실것 같아 다음강의 기대됩니다그리고 일주일 뒤의 주식이 아니라 하루 뒤의 주식 예상은 predict에서 forecast_horizon = 7 를 1로 바꿔주면 되는건가요? 코딩 하나도 모르는 사람이지만 강의하시면서 이해하기 쉽고 따라할는 강의인것 같습니다일단 한번 쭉 다 보고 천천히 따라하고 있는중인데 강의 제작시와 현재의 나스닥 100 종목이 다르기도하고 원하는 주식 좀더 추가해보고싶어서 이것저것 해보고있는데 재밌네요
-
미해결딥러닝 이론 + PyTorch 실무 완전 정복
오타
안녕하세요.7:13에 맨 오른쪽아래에 XN(t+1)에서 M인데 N으로 오타가 있습니다.
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
혹시 이론강의 자료도 공유가 가능하실까요?
안녕하세요 변정현 강사님.강의 잘 듣고있습니다. 실습 수업 때는 주피터 노트북 형식으로 강의자료 다운로드가 가능한데, 혹시 이론강의 자료도 공유가 가능하신가해서 질문을 드립니다. 내용만 볼수있으면 pdf형식이나 워터마크가 추가되어도 크게 문제가 없을것 같은데, 혹시 가능하실까요?
-
미해결딥러닝 이론 + PyTorch 실무 완전 정복
[sec. 2-8 실습] 배치사이즈의 선택
안녕하세요. 좋은 강의 잘 듣고 있습니다. 반복해서 여러 차례 들을 수 있어서 정말 좋습니다. 조금 기초적인 질문인가 싶은데요. 아래 이미지에서 질문이 있습니다.맨 아래 셀의 코드 x = torch.rand(8, 128)에서 배치 사이즈를 8로 정하는 이유를 질문드립니다.in feature가 128이고, out feature가 64라서 대략 2의 배수가 선택된 것인가 추측합니다. 다음 시리즈 기다리고 있습니다. 감사합니다.
-
미해결직관적으로 이해하는 딥러닝 트랜스포머
모듈
안녕하세요 실습 구현 RNN에서 MyRNN이 모듈을 상속받는단게 어떤 의미인지 알 수 있을까요?
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
[section 14 / [실습] 직접 만든 CNN 모델과 ResNet, VGGNet을 활용한 CV 프로젝트] transforms.Normalize 질문
cifar10 데이터셋에 대하여 Normalize를 적용하는 이유가 궁금합니다.mean과 std 리스트에 들어있는 값의 의미가 무엇인가요?이미 ToTensor()로 0~1값의 스케일링 된 데이터를, 표준화까지 적용하여 평균0, 분산 1로 만드는데 장점이 있는건가요??normalize = transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]) def get_dataloaders(): train_data = torchvision.datasets.CIFAR10( root="../.cache", train=True, download=True, transform=transforms.Compose([torchvision.transforms.ToTensor(), normalize]), )
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
[section 14 / VGGNet ] receptive filed 질문
안녕하세요. 항상 강의 잘 듣고 있습니다. 감사합니다. 다름이 아니라 section14. vggnet 강의를 듣던 중 receptive field에 대해 의문이 생겨 질문하게 되었습니다. 교안 82페이지에 (3,3) conv layer 2개를 쌓으면 receptive field가 (5,5)가 아니라 왜 (7,7)이 되는 것인지 궁금합니다.(1,1) 픽셀이 직전 에 (3,3)에서 왔고, (3,3)은 직전 (5,5)에서 convolution 연산으로 오는 것이 아닌가요?
-
미해결직관적으로 이해하는 딥러닝 트랜스포머
state
안녕하세요! 강의에서 설명해주시는 state가 은닉층 하나를 의미하는건지 궁금합니다:)
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
[섹션3, PyTorch로 구현해보는 Loss Function] 분류task loss함수 질문입니다.
좋은 강의 정말 잘 듣고있습니다. 항상 감사합니다.다름이 아니라 nn.BCEloss 나 nn.BCEWithLogitsLoss에서 이름에 B(Binary)가 들어가 이진분류 문제에 사용하는 함수인가 싶었는데, 실습 강의때 처럼 다중 분류 문제의 loss 함수로 사용해도 괜찮은 것인지 여쭙고 싶습니다.generate_onehot 함수는 클래스가 10개인 다중분류 데이터를 생성합니다.batch_size = 16 n_class=10 def generate_onehot(batch_size=16, n_class=10): pred = torch.nn.Softmax()(torch.rand(batch_size, n_class)) gt = torch.rand(batch_size, n_class) gt = torch.tensor(gt == torch.max(gt, dim=1, keepdim=True)[0]).float() # convert to onehot return pred, gt
-
미해결직관적으로 이해하는 딥러닝 트랜스포머
Transformer Decoder 강의에서 "MaskedMultihadAttention"클래스 질문
안녕하세요. 설명을 너무 잘해주셔서 Transformer에 대한 이해도가 높아졌습니다. 감사합니다.강의 중 이해안되는 부분이 있어 질문드립니다. "Char Level GPT 만들기"강의 중 MaskedMultiheadAttention 클래스 선언 부분의 attention 객체 만드는 부분의 매개변수가 이해가 안갑니다. Class MaskedMultiheadAttention(nn.Module): def init(self, embed_dim, num_heads): ... self.attentions = nn.ModuleList([MaskedSelfAttention(attention_dim, attention_dim) for in range(num_heads)] ... 위에 attention 객체 생성할 때 입력단자로 attention_dim이 들어가게 되는데 embed_dim 이 들어가야 하는게 아닐까요? 선택사항이라고 하기에는 TrnsformerDecoderBlock 클래스 선언한 걸 보면 layer_norm1을 emed_dim으로 설정해서 그래도 맞지 않는 것 같아서요. 답변 부탁드릴게요!
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
GoogleNet Inception 모듈
안녕하세요 선생님강의 잘 보고 있습니다구글넷의 인셉션 모듈 설명 중에 MAX pooling이 포함되어 있는데요보통 max pooling은 인풋의 사이즈를 줄이는 것으로 알고 있는데 그러면 다른 컨볼루션이 통과된 아웃풋과 사이즈가 달라져서 concat이 안되는 거 아닌가요?아니면 여기에 포함된 컨볼루션들은 max pooling과 같은 stride를 같는 걸까요?
-
해결됨생성형 AI 기초와 동작 원리 이해
클립모델 실습 중 에러 발생 관련 문의드립니다.
코랩에서 910 실습파일 실행 시 skimage.data_dir 경로에 이미지 파일이 없는것으로 보입니다. FileNotFoundError Traceback (most recent call last) <ipython-input-31-48f15de4b83a> in <cell line: 9>() 7 8 # skimage의 데이터 디렉토리에서 .png 또는 .jpg로 끝나는 모든 파일을 반복하여 처리합니다. ----> 9 for filename in [filename for filename in os.listdir(skimage.data_dir) if filename.endswith(".png") or filename.endswith(".jpg")]: 10 # 파일명에서 확장자를 제거하여 이미지의 이름을 얻습니다. 11 name = os.path.splitext(filename)[0] FileNotFoundError: [Errno 2] No such file or directory: '/root/.cache/scikit-image/0.24.0/data
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
Batch Normalization 효과
안녕하세요 선생님강의 정말 잘 보고 있고요제 많은 질문들에도 너무 성심성의껏 답변 달아주셔서 감사합니다 ㅎㅎBatchNorm이 설계된 의도는 internal covariate shift를 해결하기 위해 제안되었다는 것은 이해했습니다.하지만 실제로는 그렇지 않고 optimization surface를 매끄럽게 해서 학습이 잘된다라고 설명하신 것까지 들었습니다.제가 이해한 바로는 활성화 함수에 들어가는 입력의 분포를 조정해서 학습이 잘되는 위치? 분포를 학습하는 것으로 이해했는데요(sigmoid로 예시를 든다면 더 이상 업데이트가 되지 않아도 될 정도라면 기울기가 saturate되는 부분으로 혹은 업데이트가 많이 되어야 한다면 0부근으로 이동시키는 등의) 정확히 어떤 원인에 의해 surface가 매끄러워지는 효과를 가지게 되는 것인지 궁금합니다..!
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
Layer Norm이 언어모델에 적합한 이유
안녕하세요 선생님강의 정말 잘 보고 있습니다.Layer Normalization을 보는 중에 입력 데이터를 Normalization하는 것을 통해 scale이나 shift에 robust하게 되는 것까진 이해했습니다.이런 효과가 왜 이미지보다 언어 모델에 더욱 효과적인지 이유를 알 수 있을까요?
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
9-2 fully connected NN
여기서 네트워크를 구성할 때 맨 마지막에 sigmoid를 태운 후에 마지막에 또 Softmax를 태우는데, 이렇게 할 거면 애초부터 네트워크의 마지막단을 sigmoid가 아닌 softmax를 태우면 되는 거 아닌가요?왜 sigmoid를 거친 후에 softmax를 태워야 하는 것인지 알 수 있을까요?
-
해결됨딥러닝을 활용한 자연어 처리 (NLP) 과정 (기초부터 ChatGPT/생성 모델까지)
transformer 훈련 마친 모델 공유 가능할까요?
강사님, 혹시 transformer 훈련 마친 모델 공유 가능할까요?pt-en en-kr 강의중에 언급하신 버젼colab에서 직접 돌려보다가 런타임이 계속 끊겨서 실패하다 요청드립니다ㅠ 덕분에 nlp에 많은 도움을 받고 있습니다. 감사합니다 :)