강의

멘토링

커뮤니티

인프런 커뮤니티 질문&답변

봉동개미님의 프로필 이미지
봉동개미

작성한 질문수

[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)

7회 기출유형(작업형2)

중간에 rmse, f1_score 등 평가지표 구하는거 어떻게 채점하는걸까요~?

해결된 질문

작성

·

30

0

  • 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요!

  • 질문과 관련된 영상 위치를 알려주면 더 빠르게 답변할 수 있어요

  • 먼저 유사한 질문이 있었는지 검색해보세요

실제로 제출은 csv 파일로 하는데, 그 중간에 rmse 등 평가지표 구하잖아요

이거 뭐 답안 제출하는 곳이 있는건가요? 아니면 코딩한걸 전부 다 보고 확인하는걸까요??

아니면 그냥 평가지표 점수로 단순히 모델 선택할떄 쓰는 기준인건가요?

 

어리석은 질문같지만.. 평가지표를 계속 구하고있는데 실제로는 csv 로 제출하는데 왜 구하는걸까하는..

답변 2

0

퇴근후딴짓님의 프로필 이미지
퇴근후딴짓
지식공유자

코드를 보고 평가하지 않습니다.

생성된 csv로만 평가해요!

 

평가지표를 왜 구하냐면

수능 치기 전에 모의고사라고 생각해 주세요

랜덤포레스트로 점수 확인하고, lightgbm으로 점수 확인하고,

결측치를 채웠을 때 점수 확인하고, 다르게 채웠을 때 점수 확인하는

용도입니다.

 

만약 1가지 방법으로만 준비하고 비교하지 않는다면 평가지표를 확인하는 자체가 의미 없습니다.

0

안녕하세요, 인프런 AI 인턴입니다. 봉동개미님, 질문 주셔서 감사합니다. 빅데이터 분석과 관련하여 평가지표(RMSE, F1-score 등)를 사용하는 이유에 대해 설명드리겠습니다.

평가지표의 목적

  • 모델 성능 평가: 평가지표는 주로 모델의 성능을 평가하고자 할 때 사용됩니다. 예를 들어 RMSE는 회귀 모델의 예측 정확성을 확인하는 데 유용하며, F1-score는 분류 모델의 성능을 측정하는 데 유용합니다. 이와 같은 지표를 통해 본인이 구현한 모델이 얼마나 정확한지, 다른 모델과 비교했을 때 성능이 어떻게 되는지를 알 수 있습니다.

실전에서의 활용

  • 모델 선택 기준: 여러 모델을 실험할 때 각각의 성능을 평가하여 가장 좋은 성능을 보이는 모델을 선택하는 기준으로 사용됩니다. 이렇게 선택된 모델의 결과를 CSV 형식으로 제출하게 됩니다.

코딩과 제출

  • CSV 제출: 실기 시험이나 실제 대회에서는 최종적으로 결과물을 CSV 파일로 제출하게 됩니다. 중간에 평가지표를 계산하는 이유는, 이를 통해 얻은 정보를 바탕으로 모델을 개선하거나 선택하는 데 도움을 주기 위함입니다. 제출 시에는 이러한 평가지표 계산 부분은 코드에 포함되지 않을 수 있습니다.

유사한 주제에 대해 다룬 게시물도 살펴보시면 도움이 될 것입니다:

  1. 작업형 2에서 RMSE나 정확도 등 평가 코드는 주석 처리하면 안되나요?
  2. 작업형2 시험장에서 제출할때

이 정보가 도움이 되기를 바랍니다. 추가로 궁금한 점이 있으시면 언제든지 질문해 주세요.

저는 질문자님의 이해를 돕고자 지식공유자님의 기존 답변을 참고하여 유사한 답변 링크를 추천해드리고 있습니다.
현재 베타 기능으로 답변이 만족스럽지 않을 수 있는 점 양해 부탁드립니다. 🙏
추가적으로 궁금한 점이 있으시면, 이어서 질문해 주세요. 곧 지식공유자께서 답변해 주실 것입니다.

봉동개미님의 프로필 이미지
봉동개미

작성한 질문수

질문하기