Inflearn brand logo image

인프런 커뮤니티 질문&답변

아젠다프리님의 프로필 이미지
아젠다프리

작성한 질문수

RAG를 활용한 LLM Application 개발 (feat. LangChain)

fine-tunning은 어떻게 생각하세요?

작성

·

45

·

수정됨

0

fine-tunning은 어떻게 생각하세요? 강사님이 알려주신 내용대로 RAG만 하면, fine-tunning은 할 필요가 없을까요? 아니면 fine-tunning이 필요한 영역이 따로 있는 걸까요? fine-tunning에 대해서 어떻게 생각하시는지 궁굼해서 문의드립니다 :)

답변 2

0

강병진님의 프로필 이미지
강병진
지식공유자

안녕하세요! 좋은 질문 감사합니다.

편견으로 가득찬 의견이지만 저는 개인적으로 fine tuning이 필요 없다고 생각합니다. LLM이 일단 너무 방대한 양의 데이터로 학습이 되는데, 그에 비해 확연히 부족한 양의 데이터로 fine tuning을 시도한다는 것 자체가 크게 의미가 없다고 생각해요. OpenAI에서 제공하는 fine tuning기능을 사용하지 않고, 직접 Fine tuning한 모델을 직접 서빙하려면 gpu 클러스터나 인프라도 같이 구비를 해야하는데 이 비용도 감당하기 쉽지 않을거라고 생각합니다.

내부망에서 운영되기 때문에 외부 API 호출이 불가능해서 어쩔 수 없이 fine tuning해서 직접 모델을 서빙해야하는게 아니라면 저는 개인적으로는 추천하고 싶지는 않습니다. 그리고 fine tuning도 시도했을 때 성능이 잘 된다는 보장도 없고, 요즘 좋고 더 빠르고 효율적인 모델이 쏟아져 나오는 상황에서, fine tuning을 시도하시기 보다는 작업하시는 use case에 맞는 모델을 찾아서 사용하시는게 더 합리적이라고 생각해요

하지만 이건 엔지니어들마다 생각이 다른 영역이기도 하고, 제 경험에만 비추어 답변을 드리는거라 참고만 하시고, 상황에 맞게 잘 판단해서 결정하셨으면 좋겠습니다!

0

안녕하세요, 인프런 AI 인턴입니다. 아젠다프리님이 올려주신 질문에 대해, 기존에 유사한 답변이 있는지 찾아보았습니다.

Fine-tuning은 특정 애플리케이션이나 도메인에 맞게 모델의 성능을 향상시키기 위해, 사전 학습된 모델을 추가적으로 학습시키는 과정입니다. 이는 특정한 데이터에 더 나은 성능을 발휘하도록 모델을 조정할 수 있는 강력한 방법입니다.

하지만, RAG를 활용한 LLM Application 개발 강의에서도 언급된 것처럼, RAG (Retrieval-Augmented Generation) 방식을 사용하면 모델이 필요로 하는 특정 정보를 외부 데이터베이스에서 검색하여 사용할 수 있기 때문에, 모든 경우에 fine-tuning이 필요한 것은 아닙니다. 특히, 데이터베이스에서 최신 정보나 매우 구체적인 정보를 가져올 수 있는 상황에서는 fine-tuning의 필요성이 줄어들 수 있습니다.

따라서, fine-tuning이 필요한 경우는 주로 다음과 같은 상황입니다:
- 매우 특수한 도메인 지식이 필요한 경우
- 모델이 다루기 어려운 복잡한 패턴이 있는 경우
- 사용자가 요구하는 성능 기준이 높은 경우

이미 관련 질문들과 답변들이 게시판에 많으니, 참고하시면 큰 도움이 될 것 같습니다. 아래의 답변들을 추천드립니다:

  1. “파인튜닝에 관한 수업을 만드실 계획은 없으신가요?”: 이 게시물에서는 파인튜닝에 대한 간단한 설명과 더불어 적용 가능성에 대한 의견이 담겨 있습니다.
  2. “보안 및 오픈소스 활용”: 파인튜닝을 포함하여 RAG와 다른 접근 방식에 대한 활용 가능성을 다루고 있습니다.

저는 질문자님의 이해를 돕고자 지식공유자님의 기존 답변을 참고하여 유사한 답변 링크를 추천해드리고 있습니다.
현재 베타 기능으로 답변이 만족스럽지 않을 수 있는 점 양해 부탁드립니다. 🙏
추가적으로 궁금한 점이 있으시면, 이어서 질문해 주세요. 곧 지식공유자께서 답변해 주실 것입니다.

아젠다프리님의 프로필 이미지
아젠다프리

작성한 질문수

질문하기