작성
·
192
0
선생님, 강의 잘 보고 있습니다.
몇 가지 질문을 드리고자합니다.
1) 이건 좀 간단한 확인일 수 있는데,
강의 5:58초 슬라이드에서 결국에는
x1,x2이런게 어떤 단항, 혹은 수치가 아니라
선형대수에서 말하는 하나의 열벡터라고 봐야되는 것이죠?
그렇게 되면 xn만큼 가중치 행벡터가 존재하게 되는 것인데
이 계산을 하려면 행렬이 맞아야 하니까 가중치 행벡터의 WT를 내적해야 되는 것이죠? 그렇게해서
dot 연산에 의해 저 weighted Sum을 구하는 것이라고 봐도 무방한가요?
2) 특정 N[L]의 신경망이 있다고 하였을 때
x1 n[1]1
x2 n[1]2 n[2]1 .....
x3 n[1]3 n[2]2
x4 n[1]4
2-1) n[1]1은 x1~x4까지 저 퍼셉트론 과정에서의 연산을 하는 것이고, 이 연산의 결과는 또 다시 열벡터가 되는 것인가요?
2-2) 그리고 각각 저 1층에서 모든 뉴런에 대하여 똑같은 연산을 전부 한다고 봐도 괜찮은 것이죠?
제가 요새 갑자기 받아들이는 정보량이 너무 많아져서ㅜ.ㅜ 개념 정리가 필요할 것 같아서 질문드렸습니다. 감사합니다 선생님!