• 카테고리

    질문 & 답변
  • 세부 분야

    컴퓨터 비전

  • 해결 여부

    미해결

선생님, 질문이 있습니다.

21.10.19 01:40 작성 조회수 149

0

선생님, 강의 잘 보고 있습니다.

몇 가지 질문을 드리고자합니다. 

1) 이건 좀 간단한 확인일 수 있는데,

강의 5:58초 슬라이드에서 결국에는

x1,x2이런게 어떤 단항, 혹은 수치가 아니라 

선형대수에서 말하는 하나의 열벡터라고 봐야되는 것이죠?

그렇게 되면 xn만큼 가중치 행벡터가 존재하게 되는 것인데 

이 계산을 하려면 행렬이 맞아야 하니까 가중치 행벡터의 WT를 내적해야 되는 것이죠? 그렇게해서

dot 연산에 의해 저 weighted Sum을 구하는 것이라고 봐도 무방한가요?

2) 특정 N[L]의 신경망이 있다고 하였을 때

x1         n[1]1

x2         n[1]2    n[2]1   .....     

x3         n[1]3    n[2]2

x4         n[1]4

 

2-1) n[1]1은 x1~x4까지 저 퍼셉트론 과정에서의 연산을 하는 것이고, 이 연산의 결과는 또 다시 열벡터가 되는 것인가요?

 

2-2) 그리고 각각 저 1층에서 모든 뉴런에 대하여 똑같은 연산을 전부 한다고 봐도 괜찮은 것이죠?

 

제가 요새 갑자기 받아들이는 정보량이 너무 많아져서ㅜ.ㅜ 개념 정리가 필요할 것 같아서 질문드렸습니다. 감사합니다 선생님!

 

답변 1

답변을 작성해보세요.

0

1, 2 모두 적어 주신 부분이 맞습니다. 

감사합니다.