inflearn logo
강의

講義

知識共有

本当の人工知能につながるディープラーニングの概念をつかむ

人工ニューラルネットワーク(Artificial Neural Networks)

Input size 및 노드수 관련 문의

514

rhdisp8288

投稿した質問数 7

1

딥러닝에서 input size는 입력층의 노드수를 의미한다고 학습했습니다. 여기서 노드는 data의 변수 하나하나를 의미한다고 이해했는데, 맞나요?

 

실전 파이토치 강의에서 코드 짜신거 보면 x_seq의 행의 갯수로 설정하신것도 모든 변수를 노드로 설정하여 학습시키기 위함이라고 이해하는게 맞나요?

머신러닝 배워볼래요? 인공신경망 딥러닝

回答 2

0

rhdisp8288

빠른 답변 감사합니다!

추가적으로 하나 더 질의 드리겠습니다.

그렇다면 input size는 변수의 개수보다 많을 수도 적을수도 없는 것인가요?

0

dlbro

가공 전 데이터 변수의 개수가 노드의 개수보다 많을수도 있고 적을 수도 있습니다. 하지만 차원축소나 확장 (예. PCA, feature selection , Fourier embedding 등)을 통해 최종적으로 모델에 들어갈 변수의 개수는 노드의 개수와 같아야 합니다! 

0

dlbro

안녕하세요!

 

맞습니다. input size는 입력 데이터의 변수의 개수(혹은 피쳐라고 부르기도 합니다)와 같은 의미입니다. 그런데 모든 변수가 노드로 설정된다는 표현보다는 각 입력 변수가 입력 레이어의 각 노드에 매칭되어 들어간다고 보시면 좋을 것 같습니다 (엄밀히 따지면 가중치와 입력 데이터의 행렬곱이지만요^^;;;)

 

감사합니다.

 

numpy의 shape

0

583

1

tfjs-node 안깔려서

0

1102

1

강의자료 요청드립니다!

0

538

1

하이퍼 파라미터 튜닝 범위

0

608

1

딥러닝 코드에 Batch Normalization 적용해보기 질문입니다

0

580

1

flyctl 관련 재문의 드립니다.

0

594

1

Adversarial-based Transfer Learning과 GAN에 대해 질문 드립니다

1

651

1

모멘텀 기반, 가변학습률, adam 식 보충 설명 요구

1

510

1

알아두기 2.3.8 이진 교차 엔트로피 함수 식 괄호 여부 질문

0

320

1

공식 표현이 이해가 안됩니다...

0

404

1

안녕하세요 비지도학습 문의드려요

1

218

1

강의 공부 내용을 정리해서 개인 블로그에 업로드해도 괜찮을까요?

0

366

1

손실함수 교차엔트로피 함수

0

1028

3

계산 오류 (영상 16:04~16:53)

2

278

1

손실함수 예제 질문

0

292

1

XOR 강의 중에 질문있습니다

0

209

2

Grad CAM에 관한 질문 입니다.

0

237

1

Adversarial-based 전이 학습에 관한 질문 입니다.

1

276

2

드랍아웃과 Convolutional Autoencoder에 대한 간단한 질문입니다.

1

302

2

Sparse Autoencoder의 식에서 궁금한 점이 있습니다.

1

351

4

Attention Mechanism이 이해가 잘 안되네요

1

404

2

간단한 궁금증입니다!!

1

302

2

필터사이즈와 컨볼루션레이어 크기의 관계에서

1

494

2

XOR 문제 행렬 연산

6

581

1