-
카테고리
-
세부 분야
딥러닝 · 머신러닝
-
해결 여부
미해결
RNN 가중치 w,u,l shape 질문
23.05.07 01:51 작성 23.05.07 01:57 수정 조회수 250
1
안녕하세요 선생님 RNN에 대한 알고리즘을 공부하다가 가중치의 shape를 보면서 이해가 가지 않아서 질문을 드립니다
a(t)안에 있는 원소들의 shape들이 달라도 weight를 통해서 n*1의 형태로 만드는 것은 이해를 했는데
input과 ,h(t-1)의 행이 다른 이유는 무엇인가요?
행이 달라도 되는 이유가
I work at Google라고 할때
I, work (t시점이 work일때)
i, work의 글자 수의 차이 때문에 이렇게 행이 다른건가요?
감사합니다
답변을 작성해보세요.
1
딥러닝호형
지식공유자2023.05.07
안녕하세요.
말씀하신 부분은 이해하신게 맞습니다 :) 관계식에 의해서 Ux가 크기 n x 1이고 Wh의 크기가 n x 1이므로 b+Wh+Ux 계산이 가능하여 a도 n x 1이 나오게 됩니다. 물론 여기서 b도 n x 1입니다.
행(?)이 달라도 되는 이유를 질문 주셨는데 h(t)의 길이를 의미하는 것인가요? h의 길이는 목적에 따라 다르며 h의 길이에 상관없이 many to one이나 one to many와 같이 아웃풋 길이를 정하실 수 있습니다. 그리고 임배딩할 때 글자 수와 관계없이 각 단어마다 하나의 벡터로 임배딩 됩니다.
예) I -> (1,0,0,0,....,0), work -> (0,0,1,0,....,0), .....
감사합니다!!
엽강통강
질문자2023.05.12
안녕하세요 선생님 추가적인 질문이 있습니다 선생님 강의하신 lstm 모형에서 unit = 64라고 하면 선생님이 보여주는 lstm 모형이 64개가 있다고 생각해야 하는건가요??? (lstm모형들이 64개가 붙어 있는건가요?)
감사합니다
딥러닝호형
지식공유자2023.05.12
LSTM 강의의 3:12분쯤 나오는 파란 네모 박스가 64개가 됩니다! RNN, LSTM, GRU는 내부 계산이 다를뿐이지 큰 구조는 모두 동일합니다.
답변 1