작성
·
346
0
먼저 매우 유익한 강의를 해주셔서 감사드립니다.
강의를 들으면서 정말 큰 도움을 받고 있습니다.
제가 질문드리고 싶은 것은,
EWMA의 강의에서 alpha 방식에는 t -> ∞ 경우와 t ≠ ∞ 경우로 설명을 해주셨습니다.
두 경우 결과가 약간씩 차이가 나는데 강사님께서는 각 어플리케이션에서의 필요에 맞게 사용하라고 언급해주셨습니다.
그런데 제가 생각해 봤을 때 현실적으로 t는 무한대가 아니므로 t ≠ ∞의 식을 사용하는 경우가 대부분일거라는 생각이 듭니다.
그렇다면 t -> ∞ 인 경우의 식을 왜, 그리고 언제 사용하는 것인지, 이 식을 사용했을 경우의 이점이 무엇인지에 대한 의문이 생깁니다.
얼른 생각했을 때는 t -> ∞ 로 놓고 계산하는 것이 근사를 계산하는 방식이므로 performance 측면에서 더 유리하기 때문이 아닐까 추측해봅니다.
즉, 데이타가 광범위하고 아주 클 때 t -> ∞ 로 놓고 계산하는 것이 프로그램 성능을 높여주기 때문이 아닐까 생각이 되는데 그렇다면 상대적으로 다루는 데이타 사이즈가 크지 않은 개인이 사용하는 프로그램에서는 대부분은 그냥 t ≠ ∞ 으로 놓고 사용하면 될 것 같습니다.
이런 저의 추측이 맞는 것인지, t -> ∞ 로 가정하는 방식을 사용하는 딱히 다른 이유가 있는 것인지 궁금합니다.
감사합니다~
답변 1
0
안녕하세요!
좋은 질문이네요. 저도 좀 생각을 해봤는데, 확실히 계산측면에서의 optimization 외에는 명확히 사용 기준이 없을거라 생각이 드네요. 결국 두가지 식으로 부터 도출된 값은 approximate하게 같을 것이니(t가 충분히 크다면), 계산속도를 높이자인 것 같습니다.
사실 저는 경험적으로 https://www.inflearn.com/questions/384209 에서 답변드린 것처럼, 최종 결과와 연계하여 heuristic하게 optimize 할 수 있는 결과를 선택하기도 합니다. 즉, 해당 기준도 하나의 hyperparmeter로 간주하고 각각 실험을 하는 것이죠.
그 외에는 딱히 큰 수학적으로 판단되는 기준은 없을 거라고 생각이 되는데, 만약 있다면 저도 알고 싶네요 ㅎㅎ
답변이 되셨으면 좋겠습니다
좋은 질문 감사합니다.