소개
(전) 엔코아 컨설팅
(전) 한국 오라클
AI 프리랜서 컨설턴트
파이썬 머신러닝 완벽 가이드 저자
강의
전체11로드맵
전체3수강평
- 체계적으로 정리가 잘된 강의임
Seongc좋은ᅵᅵheol Kim
2024.07.22
0
- 기본기 다지기에 아주 훌륭한 강의입니다
hjk6557
2024.06.30
0
게시글
질문&답변
2024.07.27
Feature 표현에 대한 질문입니다.
안녕하십니까, 여기서 Feature 표현이라고 말씀드린건 feature들을 가공하는 일반적인 기법으로, 앞에서 설명드린 픽셀별 histogram값을 벡터화 하는등의 작업을 의미합니다. feature 표현이 3개가 있다는 의미는예를 들어 feature들의 RGB Histogram을 각각 3개의 벡터로 만들었다는 의미 입니다. 이걸 각 분면 상에 적용했으므로 1 분면은 3, 4분면은 12, 16 분면은 48 원소의 vector로 표현합니다. 이와 비슷하게 Maxpooling을 했다는 feature의 최대값만 추출하므로 분면당 하나씩의 vector만 추출해서 표현합니다. 감사합니다.
- 0
- 2
- 24
질문&답변
2024.07.25
형변환 (::) 관련 문의
안녕하십니까, 몸이 좀 안 좋아서 답변이 늦었습니다. ::text가 기능이 유용하다는 의미는 to_char 보다 새롭거나 뛰어난 기능이 있다라기 보다 SQL을 작성하면서 보다 쉽고 자연스럽게 문자열 변환을 수행할 수 있다는 의미 입니다. to_timestamp(hiredate, 'yyyy-mm-dd')::text와 같이 굳이 to_timestamp를 'yyyy-mm-dd' 로 한 뒤 ::text와 같은 방식과 to_char()를 어떤 의미로 비교하시는지는 모르겠지만, to_char(hiredate, 'yyyy-mm-dd') 보다는 hiredate::text 가 SQL을 작성하면서 좀 더 쉽고 자연스럽게 문자열 변환을 수행하는 방식이라는 의미 입니다 . 감사합니다.
- 0
- 1
- 39
질문&답변
2024.07.19
xgboost의 n_estimators
안녕하십니까, n_estimators값 만큼의 반복 수행을 하며 decision tree의 가중치를 수정해나가는 방식으로 이해하였는데 맞는지 궁금합니다 => 네, 맞습니다. 정확히는 decision tree와 유사한 방식의 weak tree의 가중치를 수정해 나가는 방식입니다. 그리고 xgb가 왜 앙상블 기법인지에 대해서도 약간 이해가 잘 안되서 설명 부탁드립니다 => XGBoost는 GBM 방식으로 동작합니다. 1개의 Tree가 아니라, 여러개의 Tree를 순차적으로 결합하여 만들어 집니다. 그러니까 1개의 tree기반으로 1번 모델이 만들어졌으면 2번째 tree에서는 1번 모델의 오류를 줄이도록 Gradient 값을 재 계산하여 2번 모델을 만들어서 1번 모델과 2번 모델을 결합하여 예측한 뒤 이 모델의 예측값이 줄이는 방향으로 3번째 tree에서 3번 모델을 만든 다음에 1번모델 + 2번 모델 + 3번 모델 을 결합하여 예측하는 방식으로 순차적으로 진행하는 방식이 GBM이며, 여러 모델들이 결합하여 학습/예측되므로 앙상블 방식입니다 감사합니다.
- 0
- 1
- 47
질문&답변
2024.07.18
Join on 순서 관련 질문드립니다.
안녕하십니까, join 문 사용 시 on 뒤의 컬럼 순서에 따라서도 sql문 결과값이 달라지지 않습니다. 두 SQL은 동일한 결과를 반환합니다. 감사합니다.
- 0
- 1
- 50
질문&답변
2024.07.17
mm_faster_rcnn_train_coco_bccd 학습시 수행이 안됩니다
안녕하십니까, 실습코드를 그대로 적용하시면 잘 됩니다. 실습코드를 다시 한번 다운로드 받으시거나, 아님 cfg 설정하실 때 아래를 추가해 주십시요. cfg.device='cuda' ConfigDict' object has no attribute 'device 오류 발생시 반드시 설정이 필요합니다. 감사합니다.
- 0
- 1
- 70