안녕하세요.
176
작성한 질문수 8
안녕하세요.
경사하강법을 이용하여 선형회귀 구현하기 - 01 강의를 수강하던 중 궁금한 점이 생겨 질문드립니다.
get_update_weights_values 메소드를 작성하실 때, bias_update 값을 구하는 식을 w1_update & w2_update와 유사하게 가져가신다면서 np.ones 를 사용하셔서 np.dot을 해주셨습니다. 하지만 np.dot(np.ones.T, diff)나 np.sum(diff)나 결과는 동일한데 np.dot을 사용하시는 이유가 있으신가요 ? numpy 내부적으로 sum 보다 dot 연산 속도가 빠르다던가 등등 이요.
궁금합니다!
답변 1
resize 질문
0
51
1
20251212 Kaggle 런타임에 scikit-learn 설치 실패 트러블 슈팅
0
77
1
Loss와 매트릭 관계
0
65
2
Boston 코랩 실습
0
165
2
배치 정규화의 이해와 적용 2 강의 질문
0
136
2
Augmentation원본에 적용해서 데이터 갯수 자체를 늘리는 행위는 의미가있나요?
0
146
2
Conv함수 안에 activation 을 넣지 않는 이유가 뭔지 궁금합니다.
0
206
2
소프트맥스 관련 질문입니다
0
209
1
강의 관련 질문입니다
0
151
2
residual block과 identity block의 차이
0
190
2
옵티마이저와 경사하강법의 차이가 궁금합니다.
1
240
1
실습 환경
0
165
2
입력 이미지 크기
0
244
2
데이터 증강
0
196
2
albumentations ShiftScaleRotate
0
207
1
Model Input Size 관련
0
282
1
마지막에 bird -> frog 말고도 deer -> frog 도 잘못된것 아닌가요??
0
204
1
일반적인 질문 (kaggle notebook사용)
0
273
2
실무에서 Augmentation 적용 시
0
339
2
안녕하세요 교수님
0
231
1
가중치 초기화(Weight Initialization) 질문입니다.
0
328
1
테스트 데이터셋 predict의 'NoneType' object has no attribute 'shape' 오류
0
409
1
학습이 이상하게 됩니다.
2
1036
2
boston import가 안됩니다
0
229
1





