월 14,300원
5개월 할부 시다른 수강생들이 자주 물어보는 질문이 궁금하신가요?
- 미해결실전 인공지능으로 이어지는 딥러닝 개념 잡기
다중레이어 경사하강법에서 질문
안녕하세요 강사님Loss 함수가 아닌 y_hat부터 미분 하는 이유가 뭔가요?W_11이 Loss의 결과에 미치는 영향을 알기 위해 Loss함수 부터 미분 해야 하지 않나요?? ㅠ
- 해결됨실전 인공지능으로 이어지는 딥러닝 개념 잡기
XOR파트에서 입력표현 방식
안녕하세요 강사님 오랜만에 다시 복습중입니다.XOR문제 6:30쯤에 입력을 행렬로 만들어서 사용 하는데요그 전까지는 입력을 열벡터로 표현 했었는데 다수의 입력을 표현 할때는 왜 행벡터로 표현이 되었는지 궁금합니다.
- 해결됨실전 인공지능으로 이어지는 딥러닝 개념 잡기
경사하강법에서 다중레이어에서의 가중치를 구할 때 식이 이해가 가질 않습니다 ㅠ.ㅠ
y hat을 w11로 미분한 값을 구할 때 위 표시처럼 2가 곱해져야 하는 게 아닌가요??
- 해결됨실전 인공지능으로 이어지는 딥러닝 개념 잡기
경우에 따른 최적의 활성화 함수 선정하는 방법
안녕하세요 호형 선생님. 강의 잘 들었습니다. 이번 ' 개념편 4강 활성화 함수 ' 에서 질문이 있습니다. 진행하는 업무에 따라 ( 인공 신경망의 각 층에 적용하는 ) 최적의 활성화 함수가 무엇인지는 다 다를 수 있다고 하셨는데요. 그럼 그 최적의 활성화 함수가 무엇일지 미리 연역적으로 알 수 있는 방법이 있나요?( 예를 들면 , 이 문제는 이런 특징이 있으니 , 이런 특징을 잘 나타내는 어쩌구 함수를 활성화 함수로 쓰면 되겠다 등 ) 아니면 그냥 결과적으로 모든 종류의 활성화 함수를 하나하나 대입해보며 가장 좋은 성능이 나오는 함수를 선택하는 수 밖에 없나요 ? 감사합니다.
- 해결됨실전 인공지능으로 이어지는 딥러닝 개념 잡기
전이학습 강의 중 질문이 있어서 남깁니다.
전이학습 부분에서 질문이 있습니다! 전이학습 종류는 총 네 가지로 나눌 수 있다고 하셨는데, network-base를 제외하고는 모두 Imagenet 과 같은 대용량의 데이터를 직접 받아 학습에 사용하는 것인가요?저도 지금 딥러닝 관련 분야에서 일을 하고 있는데, network-base 전이학습을 제외하고는 사용해본 적이 없어서 신기해서 여쭤봅니다!
- 해결됨실전 인공지능으로 이어지는 딥러닝 개념 잡기
XOR 파트에서 질문 있습니다.
초반에 bias를 열벡터로 표현시다가 강의 6분부터는 행 벡터로 나오는데요 bias에는 Transpose 표기가 되어 있지 않습니다 왜그런지 궁금합니다
- 해결됨실전 인공지능으로 이어지는 딥러닝 개념 잡기
SGD + 모멘텀 등의 코드
안녕하세요 강사님 ㅎㅎ강의 너무 잘 듣고 있습니다.다름이 아니라.15:40 에 많이 사용하는 것이SGC + 스케줄링 또는 SGD + 모멘텀 + 스케줄링 이라고 말씀하셨는데요.해당 부분을 코드로 나타내면 이렇게 되는게 맞을까요?import torch import torch.optim as optim # SGD + 스케줄링 optimizer = optim.SGD(model.parameters(), lr=0.01) # SGD + 스케줄링 + 모멘텀 optimizer = optim.SGD(model.parameters(), lr=0.01, momentum=0.9) scheduler = optim.lr_scheduler.StepLR(optimizer, step_size=30, gamma=0.1) for epoch in range(num_epochs): ... for inputs, targets in train_loader: optimizer.zero_grad() outputs = model(inputs) loss = criterion(outputs, targets) loss.backward() optimizer.step() scheduler.step() 감사합니다.
- 해결됨실전 인공지능으로 이어지는 딥러닝 개념 잡기
bias가 왜 필요한지 정확하게 모르겠습니다.
저는 인공지능 관련 학과에 재학중입니다. 저학년 때 공부를 덜 해서 기초가 부족함을 느끼고 호형님 강의로 기초 공부를 하고 있는데요, 교수님께서 강의하실 때도 항상 궁금했던 건데 은닉층 사이 weight값들이 있음에도 불구하고 bias가 왜 있는건지가 궁금합니다.
- 해결됨실전 인공지능으로 이어지는 딥러닝 개념 잡기
LSTM 모형의 이해
선생님 이해가 잘 안가는 부분이 있습니다 LSTM을 보면 f, i, s~, o 전부 같은 x, h t-1의 데이터를 쓰고 있지만 각각의 다른 가중치를 쓰는 것은 이해를 했습니다그런데 input, forget 게이트에서 얼만큼 잊고, 얼만큼 받아 드린다고 하셨는데 이 부분은 각각 따로 계산이 되는건가요? 1-x가 아니여서 비율의 합이 1이 아닌데 어떤 원리로 이것을 forget gate라고 하는건가요? (아니면 s t-1이 자체가 전의 정보를 담고 있어서 이를 시그모이드로 비례적으로 계산하는건가요...?) 그리고 마지막으로 i,s~ 는 둘다 곱해서 이를 input gate라고 하는건가요? 아니면 i_t만 input gate인가요?(i,s~ 둘다 같은 데이터인데 가중치만 달라서 혼동이 옵니다) *요약하자면 선생님 써주신 공식을 보면 그냥 같은 데이터에 다른 가중치를 계산한건데 어떤 원리로 이게 작동하는지 잘 이해가 가지 않습니다*가능하시면 해당 수식이 해당 모형에서 어떻게 작동하는지 조금 더 알려주시면 감사하겠습니다 :)
- 미해결실전 인공지능으로 이어지는 딥러닝 개념 잡기
RNN 가중치 w,u,l shape 질문
안녕하세요 선생님 RNN에 대한 알고리즘을 공부하다가 가중치의 shape를 보면서 이해가 가지 않아서 질문을 드립니다 a(t)안에 있는 원소들의 shape들이 달라도 weight를 통해서 n*1의 형태로 만드는 것은 이해를 했는데 input과 ,h(t-1)의 행이 다른 이유는 무엇인가요?행이 달라도 되는 이유가I work at Google라고 할때I, work (t시점이 work일때)i, work의 글자 수의 차이 때문에 이렇게 행이 다른건가요? 감사합니다
- 미해결실전 인공지능으로 이어지는 딥러닝 개념 잡기
과적합 판단 방법에 대해 질문 드립니다.
안녕하세요, 강연자님의 자세하고 좋은 강의 잘 듣고 있습니다! 과적합 판단 방법에 대해 몇 가지 질문 드리려고 합니다.강의 복습 및 응용을 위해 5개의 Dense Layer로 구성된 DNN 실험을 진행해봤습니다. 데이터셋은 public하게 공개되어 있는 데이터를 사용했습니다.epoch 변화에 따른 정확도, 손실 함수 그래프를 그려봤는데, 첨부한 그래프들이 과적합에 해당하는지 잘 모르겠습니다. 그래서 제 그래프에서 과적합을 판단하는 기준이 무엇이 될 수 있는지 궁금합니다.저는 검증 loss가 학습 loss 보다 높을 때 과적합이라고 알고 있는데, 제가 복습을 위해서 진행해본 실험에서는 일단 그래프가 안 만나고 항상 검증 loss가 학습 loss보다 낮은데 이건 과적합이 아닌건지 궁금합니다.loss 그래프에서 학습 loss와 검증 loss가 교차되면서 검증 loss가 더 높아지는 경우에 학습을 조기 종료하는 것이 좋다고 생각하는데, 저희가 진행해본 실험에서는 그래프가 평행하게 나타납니다. 이런 경우에는 학습 및 검증 loss가 교차되지 않기 때문에 과적합이 아니라고 판단해도 되는지, 실험을 조기 종료하지 않아도 되는지 궁금합니다.아래의 그래프에서 validation loss와 validation accuracy가 V자로 나오는 구간이 있습니다. 이런 경우에는 어떤 이유 때문에 나타나는 현상인지 궁금합니다.과적합 판단 방법에는 말씀해주신 교차 검증을 이용한 판단, loss-epoch 그래프에서 validation loss값이 높아지는 부분으로 판단하는 것 외에 ‘편향-분산 트레이드오프 그래프’를 사용하는 방법도 있다고 알고 있습니다(가로축이 훈련세트크기입니다). 혹시 이 그래프는 강의에서 말씀해주신 그래프와 다른 것인지, 그리고 혹시 편향-분산 트레이드오프 그래프를 그리는 코드를 추천해주실 수 있을까요?강의에서는 교차 검증으로 과적합을 판단할 수 있다고 하셨는데, 이를 실제로 어떻게 하는지 궁금합니다. 교차 검증의 결과로 나온 avg, accuracy 등의 값이 과적합을 판단하는데 사용이 되는건가요!? 관련해서 교차 검증을 사용해서 과적합을 판단하는 법에 대한 보충 설명 해주시면 감사드리겠습니다! 좋은 하루 보내시길 바랍니다.감사합니다!
- 미해결실전 인공지능으로 이어지는 딥러닝 개념 잡기
Adversarial-based Transfer Learning과 GAN에 대해 질문 드립니다
안녕하세요!강연자님의 친절하고 유익한 강의 잘 듣고 있습니다 :) Adversarial-based Transfer Learning과 GAN에 대해 몇 가지 질문 드리려고 합니다. Adversarial-based Transfer Learing전이 학습은 기존에 알고 있는 source domain을 통해 target domain을 해결하는 학습 방법으로, 사전 학습된 지식이 활용되는 것으로 이해했습니다. Adversarial-based Transfer Learing에는 사전 학습된 모델이 사용되지 않는지 궁금합니다.Adversarial-based Trasfer Learning 설명 부분에서 'Adversarial Layer를 통해 도메인 라벨을 생성한다'라고 하셨는데, 어떻게 Adversarial Layer를 통해 도메인 라벨을 만드는지, 그리고 도메인 라벨의 정확한 의미를 추가적으로 설명 듣고 싶습니다. 구글링을 통해 딥러닝에서 Labling은 주어진 데이터에 정답지를 만들어주는 작업이고 이때 정답지가 Label이라고 이해했습니다. 이를 바탕으로 Adversarial-based Transfer Learning 강의자료의 소스 라벨과 타겟 라벨을 각각 "소스/타겟 도메인이 학습되길 희망하는 모습"이라고 이해했습니다. 제가 이해한 부분이 맞는지, 만약 아니라면 소스 라벨과 타겟 라벨이 의미하는 것이 정확히 무엇인지, 이에 대한 예시에 대해 여쭤보고 싶습니다. Adversarial-based Transfer Learing + GAN강의를 들으면서 전이 학습 중 Adversarial-based Transfer Learning과 GAN에 대해 흥미를 가지게 되었습니다. 이 두 가지 방법 모두 "Adversarial"이라는 공통점을 가지고 있고, 이 두 방법을 활용한 아이디어에 대해 질문 드리고자 합니다.Adversarial-based Transfer Learning 시나리오를 적용한 GAN 실험을 해보고 싶은데, 이때 GAN 실험 시나리오에서 Adversarial-based Transfer Learning 아이디어를 어떻게 적용하면 좋을지 여쭤보고 싶습니다. Adversarial-based Transfer Learning의 Adversarial Layer와 GAN 실험에 활용되는 Adversarial Sample을 어떻게 설정해야 Adversarial-based Transfer Learning 개념을 적용한 GAN 실험이 될 수 있는지 궁금합니다. (두 방법 모두 Adversarial한 성질을 가지고 있는데 이를 어떻게 배치해야 하는지 궁금합니다.)아니면 단순히 Transfer Learning 개념을 사용하여 GAN 코드로 실험을 진행하면, 그것을 Adversarial-based Transfer Learning이라고 볼 수 있는지도 궁금합니다. 좋은 하루 보내시길 바랍니다.감사합니다!
- 미해결실전 인공지능으로 이어지는 딥러닝 개념 잡기
모멘텀 기반, 가변학습률, adam 식 보충 설명 요구
여러가지 최적화 방법에서 모멘텀 기반과 가변학습률 식의 설명이 부족하다고 생각되어 보충 설명을 요구드립니다. 기존의 확률적 경사 하강법(SGD)의 경우 손실함수 L을 가중치로 미분하고 step size를 곱하여 가중치에서 뺀 후 새로운 가중치로 업데이트 한다는 공식은 이해가 되었습니다. 이 공식에서 모멘텀 기반과 가변학습률의 공식으로 변형 되었을 때 각 각의 v와 G가 다른 은닉층의 가중치를 의미하는 것인지 아니면 새로운 방식으로 가중치를 업데이트 하기 위해서 임의로 생성한 변수인지 헷갈립니다. 아니면 다른 의미의 변수 인가요? 은닉층의 가중치이든 새로운 변수이든 각 변수가 소문자, 대문자인 이유도 알고 싶습니다. 어떤식으로 변형된 건지에 대한 설명이 많이 축약되었다고 생각하고 뒤에 나오는 Adam 기법을 설명해주실 때에도 모멘텀 기반과 가변학습률이 어떤식으로 식에 영향을 준 건지 전체적으로 이해가 잘 가지 않습니다. 좀 더 세세하게 설명해 주실 수 있으실까요?
- 미해결실전 인공지능으로 이어지는 딥러닝 개념 잡기
알아두기 2.3.8 이진 교차 엔트로피 함수 식 괄호 여부 질문
안녕하세요. 알아두기 2.3.8 이진 교차 엔트로피 함수의 손실을 나타내는 식에서 마지막 괄호가 짝이 없는데 뒤에 나오는 차랑 보유 유무 문제 예시에서 유추해 보았을 때 식에서 시그마 뒤에 여는 괄호가 누락 된 건가요?
- 미해결실전 인공지능으로 이어지는 딥러닝 개념 잡기
공식 표현이 이해가 안됩니다...
안녕하세요. 좋은 강의 감사합니다.내용 자체가 너무 어려워서 그런지 공식이 머리에 잘 안들어옵니다... 수학 기호로 잘 표현하지 못한 점 양해 부탁드립니다.손실함수 공식에 Ex하고 Ez부분이 있던데 이게 어떻게 나온건지 잘 모르겠습니다.이진 크로스 엔트로피 공식을 다시 봐도 이해가 되질 않습니다시그마 표현인가 해서 검색해봐도 잘 안나오더라고요.인터넷에 찾아봤는데 IEx~p 이런식으로 표현도 있던데 잘 모르겠습니다 ㅠㅠ
- 미해결실전 인공지능으로 이어지는 딥러닝 개념 잡기
Input size 및 노드수 관련 문의
딥러닝에서 input size는 입력층의 노드수를 의미한다고 학습했습니다. 여기서 노드는 data의 변수 하나하나를 의미한다고 이해했는데, 맞나요? 실전 파이토치 강의에서 코드 짜신거 보면 x_seq의 행의 갯수로 설정하신것도 모든 변수를 노드로 설정하여 학습시키기 위함이라고 이해하는게 맞나요?
- 미해결실전 인공지능으로 이어지는 딥러닝 개념 잡기
안녕하세요 비지도학습 문의드려요
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. 안녕하세요. 강의 큰 도움 받고 있습니다. 비지도 학습 관련해서 해보고 싶어서 문의드려요. 비지도학습 관련 언급 해 주셨을떄, cnn 기반에서 나온 피쳐맵을 clustering해서 pseudolabeling 해보는 코드를 구현해보고 싶은데, 잘 안되네요. 혹시 clustering 시킨 이미지들 pseudo-labling 처리 하는 코드 참고 할만한 곳이나 깃헙 같은 것 알 수 있을까요? 그리고, 오토인코더에서 인코더의 결과 압축된 잠재변수들에 대한 c lustering 처리 및 clustering-loss 구현하는 코드로직 참고할 만한 깃헙 알려주실수 있을까요? 감사합니다.
- 미해결실전 인공지능으로 이어지는 딥러닝 개념 잡기
강의 공부 내용을 정리해서 개인 블로그에 업로드해도 괜찮을까요?
안녕하세요 선생님 강의를 수강하면서 공부한 내용을 정보를 추가하거나 다듬어서 개인 블로그에 올리고 싶은데 그렇게 해도 될 지 궁금해서 질문 남깁니다. 출처는 해당 강의임을 첨부할 예정입니다. 감사합니다!
- 미해결실전 인공지능으로 이어지는 딥러닝 개념 잡기
손실함수 교차엔트로피 함수
1.여기서 정답값의 원핫벡터중에서 y1과y3가 같은데 같은 데이터가 들어왔다고 생각하면 될까요? 2. 다음 과정은 이진 교차엔트로피 사용 할때 사용되는 인공신경망 예제입니다. 이 과정은 이해 되지만 다중분류 과정에서 인공신경망이 어떻게 구성되는 지 상상해보려도 상상이 가지않습니다. 예를들어 정답 원핫벡터yn= (x,y,z)에 대한 feature값들이 인풋값들에 들어가서 yn에 대한 예측값 yn햇값이 나온다음 둘이 내적을 합니다. 여기까지 좋습니다. 그런데 저가 궁금한것은 이 과정을 아웃풋의 예측값이 하나 있는 인공신경망으로 구성할수 있나요? ------------------------------------------- 이 그림과 관련된거 같은데 이해가 가질 않네요.
- 해결됨실전 인공지능으로 이어지는 딥러닝 개념 잡기
계산 오류 (영상 16:04~16:53)
단순 계산 오류 영상 16:04~16:53 f(u1,u2) = >계산해서 = 2(u1)*2 + 1*y = 4(u1) + y = 4(2x+y) +y = 8x + 5y 결과는 8x+5y가 되는 것 같습니다. 영상에서는 결과를 8x+3y로 잘못 계산했네요