소개
오랜 개발 경험을 가지고 있는 Senior Developer 입니다. 현대건설 전산실, 삼성 SDS, 전자상거래업체 엑스메트릭스, 씨티은행 전산부를 거치며 30 년 이상 IT 분야에서 쌓아온 지식과 경험을 나누고 싶습니다. 현재는 인공지능과 파이썬 관련 강의를 하고 있습니다.
홈페이지 주소:
강의
전체10수강평
- 영상 마지막은 왜 항상 강의가 끊겨있나요
ingi jang
2024.03.25
0
- 최고진심 진짜
신찬우
2024.03.18
0
- 좋와요 .
dl
2024.03.12
0
- 유익한 수업이었습니다.
princekey
2024.03.11
0
게시글
질문&답변
2024.03.20
트랜스포머 실습 파일 실행 시 에러가 발생합니다.
현재 Google Tutorial Source 에 bug 가 발생한 것 같습니다. 130_Transformers는 Google Tutorial 에 있는 https://www.tensorflow.org/text/tutorials/transformer 를 한국어로 번역하고 제 나름의 설명을 추가한 것인데 위 link의 Google site 의 원본 자체에서도 Colab에서 실행하니 아래와 같이 동일한 error 가 발생하고 있네요. Google 에서 조만간 fix 할 것으로 생각하지만 일단 저 나름으로도 에러를 피해가는 방법을 연구해서 알려 드리겠습니다. 불편을 드려 죄송합니다. (사진)
- 0
- 1
- 52
질문&답변
2024.03.09
tf.data 를 이용한 shuffling and batch 구성 관련 문의
tf.data 를 사용하여 데이터를 셔플링하고 배치로 구성하는 과정을 제외하려면, 기본적으로 model.fit 함수에 직접 입력 데이터( X_train_scaled , y_train_onehot 등)와 타겟 데이터를 넘겨주면 됩니다. 이 경우, model.fit 함수 내에서 batch_size 를 직접 지정하여 사용하고, 데이터 셔플링은 fit 함수 호출 시 shuffle=True 옵션을 추가함으로써 수행할 수 있습니다. history = model.fit (X_train_scaled, y_train_onehot, batch_size=128, epochs=5, validation_data=(X_test_scaled, y_test_onehot), shuffle=True) 감사합니다.
- 1
- 2
- 73
질문&답변
2024.02.22
features 수가 작을 경우의 Dense 설정 문의
Dense(5, activation='relu', input_shape=(5,)), ==> 5를 32 또는 64로 키우세요 Dense(3, activation='relu'), ==> 3을 16 또는 32로 키우세요 Dense(1, activation='sigmoid') ==> OK Dense layer의 unit 갯수는 데이터 컬럼수 5와는 아무 상관이 없습니다. 데이터가 데이터 컬럼수는 input_shape 에 지정하는 숫자입니다. 지금 만드신 모델의 model.summary() 에서 Total parameter 갯수 52는 너무도 작은 모델을 만드신 것입니다. 데이터 volume 이 크시면 Dense layer의 unit 수를 64로 하시고 별로 많지 않으면 (몇 만건 이내) 32로 하세요. 감사합니다.
- 0
- 1
- 54
질문&답변
2024.02.20
인공지능을 활용한 앱을 만들때 어떤 언어를 쓰나요?
파이썬과 플러터(Flutter)는 서로 다른 용도로 사용되는 기술입니다. 인공 지능 엔진이란 것이 인공 지능 모델을 의미하시는 것인가요? 인공 지능 모델은 파이썬으로 개발하는 것이 정답이고 모바일 앱 UI 개발은 플러터를 사용하시던 React 나 다른 프레임워크를 사용하시던 모두 가능합니다. 어차피 AI model 과 API 로 연결해서 어플 구현하셔야 합니다.
- 0
- 1
- 47
질문&답변
2024.02.15
오토인코더를 특성 추출기로 사용하는 방법에 대해 질문
일단 c7을 1, 2 가 아니라 0, 1 로 바꾸시기 바랍니다. 교재에서는 다른 모든 column 값 들이 scaling 되어 있고 amount 만 큰 값이라서 log scale을 잡아 줬지만 수강자님의 데이터는 각 column 별로 log scale 을 잡을 성격이 아니라 전체적으로 standard scaling을 하시는 것이 맞는 것 같습니다. c7 이 label 이라면 c7 을 y 로 분리 하시고 나머지 X column 들에 대해 sklearn.preprocessing.StandardScaler 를 이용해서 normalize 하시기 바랍니다. 감사합니다.
- 0
- 1
- 57