소개
오랜 개발 경험을 가지고 있는 Senior Developer 입니다. 현대건설 전산실, 삼성 SDS, 전자상거래업체 엑스메트릭스, 씨티은행 전산부를 거치며 30 년 이상 IT 분야에서 쌓아온 지식과 경험을 나누고 싶습니다. 현재는 인공지능과 파이썬 관련 강의를 하고 있습니다.
홈페이지 주소:
강의
전체13수강평
- 좋아요!
BACK HO KIM
2024.07.15
0
- 좋아요!
BACK HO KIM
2024.07.15
0
- 좋은 강의 감사합니다
woojoon.joung
2024.07.11
0
게시글
질문&답변
2024.07.19
정책 반복 알고리즘 구현 에서 정책 업데이트 메모리 문제
코드에 버그가 있었네요. 그래도 결과가 수렴이 되어서 모르고 지나쳤습니다 ^^ 다음 내용 수정 했습니다. GAMMA = 1.0 --> 0.9 로 수정 old_pi = copy.deepcopy(pi) 로 수정 비교문을 if np.array_equal(old_pi, pi): policy_stable = True else: policy_stable = False 로 수정 수정된 코드 github 에 update 해 놓았습니다. 좋은 질문 감사합니다.
- 0
- 1
- 50
질문&답변
2024.07.19
반복 정책 평가 실습 알고리즘에서 이론과 코드가 헷갈려서요.
인프런 AI 인턴이 이미 잘 답변해 주었네요. 결론적으로는 두가지 모두 족보에 있는 방법들이고 둘다 수렴을 보장하는 방법들 입니다. 바로 V[s]를 update 하는 방식이 즉시 갱신 (in-place update) 방식이고, 두개의 V table 을 유지하다가 한번에 update 하는 방식이 sweeping 방식입니다. 즉시 갱신 방식은 각 상태를 순회하며 그때그때 값을 업데이트하기 때문에 구현이 간단하고 메모리 사용이 적습니다. 위핑 방식은 한 번의 순회 동안 이전 상태 값을 참조하여 일관된 업데이트를 보장합니다. 일반적으로 스위핑 방식이 더 안정적인 수렴을 보일 수 있지만, 즉시 갱신 방식도 자주 사용됩니다. 요약하면 즉시 갱신 방식은 메모리 효율적이고 구현이 간단한 반면 스위핑 방식은 일관된 업데이트를 보장하고 안정적 수렴이 가능하므로 적용하는 문제에 따라 더 적합한 방법을 선택하면 되는 문제입니다. 좋은 질문 감사합니다.
- 0
- 2
- 73
질문&답변
2024.07.19
Crash 파일 위치
불편을 드려 죄송합니다. 안내 동영상에 헷갈리실 수 있는 부분은 수정하여 다시 올렸습니다. 교재 소스 링크는 동영상 아래 안내되어 있는데 다음의 링크에서 교재 download 받으시고 압축 풀어서 바탕화면에 저장하시면 됩니다. 강의 실습 코드 위치 : https://github.com/ironmanciti/infran_ML_DL 000_Crash0_Python Crash Course.ipynb 파일이 교재 파일이고 template_000_Crash0_Python Crash Course.ipynb 이 동영상을 따라 코딩 하시는 코딩 템플릿 파일입니다. 다른 문제 있으시면 질문해 주세요. 감사합니다.
- 0
- 1
- 41
질문&답변
2024.07.14
수업진행 파일
동영상 편집이 미숙하여 혼돈을 드린 점 사과 드립니다. 동영상은 새로 작성하여 바꾸어 놓았습니다. 동영상 아래쪽에 보시면 github link와 화면 캡쳐가 있으니 거기에 있는 link로 source 폴더 찾아 가세요. 감사합니다.
- 0
- 1
- 40
질문&답변
2024.06.15
Encoder Decoder 부터 Simple Chatbot까지 이상답변
코드 개선을 위해서 다음 두가지를 수정 했습니다. 1) optimizer 를 rmsprop 에서 adam 으로 변경하고 learning rate 를 0.001 로 설정 했습니다. model_teacher_forcing.compile(optimizer=tf.keras.optimizers.Adam(learning_rate=0.001), loss='sparse_categorical_crossentropy', metrics=['accuracy']) 2) epoch 을 300 으로 증가하여 학습 시간을 늘렸습니다. 3) decode_sequence 함수에서 다음을 수정하여 확률 분포를 정규화 했습니다. # 온도 조절 적용 output_probs = np.log(output_probs + 1e-10) / temperature output_probs = np.exp(output_probs) / np.sum(np.exp(output_probs)) 수정 결과 입니다. (사진) 수정한 내용을 github 의 source code 에 반영했으니 참고하시기 바랍니다. 좋은 질문 감사합니다.
- 0
- 1
- 59