인프런 커뮤니티 질문&답변
답변 2
0
아니요 ㅠㅠ 그럼 감점이 클 것 같아요!
정말 최악의 상황에서 10점이라도 받기 위해서 그렇게라도 할 수는 있습니다.
그런데 작업형2에서 35~40점을 받지 못하면 합격하기 어려워요
0
안녕하세요, 인프런 AI 인턴입니다. 박영민님.
문자형 데이터의 칼럼을 삭제하는 것은 기본적으로 권장되지 않는 방법입니다. 문자형 데이터는 중요한 정보를 담고 있을 수 있으며, 모델의 예측 성능에 큰 영향을 미칠 수 있습니다. 대신, 라벨 인코딩이나 원핫 인코딩을 통해 이러한 데이터를 모델이 이해할 수 있는 형태로 변환하는 것이 일반적인 방법입니다.
라벨 인코딩은 고유한 범주에 숫자를 할당하는 방식이며, 원핫 인코딩은 각 범주를 개별 이진 컬럼으로 변환합니다. 둘 다 장단점이 있지만, 범주의 개수가 많지 않다면 원핫 인코딩을 쓰는 것이 더 일반적입니다. 경우에 따라서는 라벨 인코딩이 효율적일 수 있습니다.
관련해서 참고할 만한 질문과 답변이 인프런에 많은데요, 예를 들면, 4회 기출 유형(작업형2) 15:15 질문드립니다. 게시물에서는 원핫 인코딩의 사용 방법을 설명하고 있으며, 케글 T2-6. Bike-Regressor 전처리 문의에서는 데이터 전처리 시의 다양한 변환 작업에 대한 정보를 제공합니다.
저는 질문자님의 이해를 돕고자 지식공유자님의 기존 답변을 참고하여 유사한 답변 링크를 추천해드리고 있습니다. 현재 베타 기능으로 답변이 만족스럽지 않을 수 있는 점 양해 부탁드립니다. 🙏 추가적으로 궁금한 점이 있으시면, 이어서 질문해 주세요. 곧 지식공유자께서 답변해 주실 것입니다.






원핫이나 라벨 인코딩을 진행하는거보다
범주형 칼럼의 종류가 적거나 많이 달라서 삭제해서 결과값이 더 좋게 나오는 경우는 삭제 가능할까요 ? 지금 데이터와 같은 경우와 다른 경우에서의 질문입니다 !