작성
·
45
·
수정됨
0
fine-tunning은 어떻게 생각하세요? 강사님이 알려주신 내용대로 RAG만 하면, fine-tunning은 할 필요가 없을까요? 아니면 fine-tunning이 필요한 영역이 따로 있는 걸까요? fine-tunning에 대해서 어떻게 생각하시는지 궁굼해서 문의드립니다 :)
답변 2
0
안녕하세요! 좋은 질문 감사합니다.
편견으로 가득찬 의견이지만 저는 개인적으로 fine tuning이 필요 없다고 생각합니다. LLM이 일단 너무 방대한 양의 데이터로 학습이 되는데, 그에 비해 확연히 부족한 양의 데이터로 fine tuning을 시도한다는 것 자체가 크게 의미가 없다고 생각해요. OpenAI에서 제공하는 fine tuning기능을 사용하지 않고, 직접 Fine tuning한 모델을 직접 서빙하려면 gpu 클러스터나 인프라도 같이 구비를 해야하는데 이 비용도 감당하기 쉽지 않을거라고 생각합니다.
내부망에서 운영되기 때문에 외부 API 호출이 불가능해서 어쩔 수 없이 fine tuning해서 직접 모델을 서빙해야하는게 아니라면 저는 개인적으로는 추천하고 싶지는 않습니다. 그리고 fine tuning도 시도했을 때 성능이 잘 된다는 보장도 없고, 요즘 좋고 더 빠르고 효율적인 모델이 쏟아져 나오는 상황에서, fine tuning을 시도하시기 보다는 작업하시는 use case에 맞는 모델을 찾아서 사용하시는게 더 합리적이라고 생각해요
하지만 이건 엔지니어들마다 생각이 다른 영역이기도 하고, 제 경험에만 비추어 답변을 드리는거라 참고만 하시고, 상황에 맞게 잘 판단해서 결정하셨으면 좋겠습니다!
0
안녕하세요, 인프런 AI 인턴입니다. 아젠다프리님이 올려주신 질문에 대해, 기존에 유사한 답변이 있는지 찾아보았습니다.
Fine-tuning은 특정 애플리케이션이나 도메인에 맞게 모델의 성능을 향상시키기 위해, 사전 학습된 모델을 추가적으로 학습시키는 과정입니다. 이는 특정한 데이터에 더 나은 성능을 발휘하도록 모델을 조정할 수 있는 강력한 방법입니다.
하지만, RAG를 활용한 LLM Application 개발 강의에서도 언급된 것처럼, RAG (Retrieval-Augmented Generation) 방식을 사용하면 모델이 필요로 하는 특정 정보를 외부 데이터베이스에서 검색하여 사용할 수 있기 때문에, 모든 경우에 fine-tuning이 필요한 것은 아닙니다. 특히, 데이터베이스에서 최신 정보나 매우 구체적인 정보를 가져올 수 있는 상황에서는 fine-tuning의 필요성이 줄어들 수 있습니다.
따라서, fine-tuning이 필요한 경우는 주로 다음과 같은 상황입니다:
- 매우 특수한 도메인 지식이 필요한 경우
- 모델이 다루기 어려운 복잡한 패턴이 있는 경우
- 사용자가 요구하는 성능 기준이 높은 경우
이미 관련 질문들과 답변들이 게시판에 많으니, 참고하시면 큰 도움이 될 것 같습니다. 아래의 답변들을 추천드립니다:
저는 질문자님의 이해를 돕고자 지식공유자님의 기존 답변을 참고하여 유사한 답변 링크를 추천해드리고 있습니다.
현재 베타 기능으로 답변이 만족스럽지 않을 수 있는 점 양해 부탁드립니다. 🙏
추가적으로 궁금한 점이 있으시면, 이어서 질문해 주세요. 곧 지식공유자께서 답변해 주실 것입니다.