3_logistic_regression_with_numpy.ipynb 에 버그가 있는 듯 합니다.

18.04.21 08:13 작성 조회수 62

0

minimize_gradient() 구현 중에

original_theta = theta라고만 되어 있어서 (같은 객체를 가르킴) 아래의 for loop에서 theta를 update시킬 때마다 original_theta도 같이 update 됩니다.

답변 1

답변을 작성해보세요.

0

예 어떤의미인지 알겠습니다. 숙제는 copy를 할 수 있게 해주고, 강의에서는 그 부분을 신경을 못쓴거 같습니다. 코드를 빠른 시일내로 업데이트 하겠습니다.