인프런 커뮤니티 질문&답변
런타임 유형 변경 및 토크나이저 관련 에러
해결된 질문
작성
·
297
·
수정됨
0

안녕하세요 코랩 실습 과정 중
하드웨어 가속기 선택할 때 V100이 비활성화 되어있을경우 어떤 것을 선택해야 하는지 문의 드립니다.

아울러 모델튜닝 실습 중 tokenizer.default_chat_template 부분에서 에러가 뜨는데 다음 단계로 넘어갈 수 있도록 하는 방법이 있을까요?

이후 패스하고 넘어간다고 해도 PEFT - LoRA부분에서도 에러가 뜹니다.

혹시 위 부분에서 pip install flash-attn===1.0.4 부분을 처리하지 않아서 오류가 난 것일까요?
퀴즈
LLM 튜닝 기법 중 PEFT(Parameter-Efficient Fine-Tuning)의 주요 목적은 무엇일까요?
모델의 학습 속도를 의도적으로 늦추는 것
전체 모델의 모든 매개변수를 업데이트하는 것
적은 수의 매개변수만 튜닝하여 효율성을 높이는 것
모델의 성능을 고의로 저하시키는 것
답변 2
1
[1] A100 > V100 > T4 순으로 사용하시면 됩니다 가장 좋은건 역시 A100이긴합니다
[2] 최신버전 hf에서는 llama2의 chat template이 depreciated되었습니다. llama3를 사용하시거나 default_chat_template을 무시하시고 진행하셔도됩니다 (저희가 어차피 따로 chat_template을 넣어주기 때문에)
[3] flash-attn은 사용하시면 좋지만 colab 환경에서 지원되지 않는 경우가 아직까진 있어서 참고용으로 주석만 처리해두었습니다. peft 에러를 보니 model을 참조하지 못하는것 같은데, peft를 적용할 모델 선언 후 실행하면 동작할것으로 보입니다
0
안녕하세요,
오류부분에 대한 실습 코드를 업데이트했습니다
trl의 sfttrainer 부분이 업데이트되다보니, 다르게 동작했던것 같습니다
이후에도 이슈발생하시면 공유주시면 감사하겠습니다




