- AISchool ( http://aischool.ai/ )
- AISchool 유튜브 채널 운영 ( https://www.youtube.com/@aischool_ai )
- 서울대학교 인공지능 및 컴퓨터 비전 연구실 석사
- [솔라리스의 인공지능 연구실] 블로그 운영
- [텐서플로로 배우는 딥러닝] 집필
- S전자 컴퓨터 비전 관련 프로젝트 수행
- 기업대상 [AI 컨설팅 서비스] 제공
- 에이아이스쿨 [TensorFlow와 실습 프로젝트로 배우는 딥러닝-컴퓨터비전 Basic 코스] 강의 진행
강의
로드맵
전체 2수강평
- 모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
- 모두를 위한 대규모 언어 모델 LLM Part 5 - LangGraph로 나만의 AI 에이전트 만들기
- 모두를 위한 대규모 언어 모델 LLM Part 5 - LangGraph로 나만의 AI 에이전트 만들기
- TensorFlow로 배우는 심층 강화학습 입문 - Deep Reinforcement Learning
- 모두를 위한 대규모 언어 모델 LLM Part 5 - LangGraph로 나만의 AI 에이전트 만들기
게시글
질문&답변
Llama vision 이미지 해상도
안녕하세요~. 반갑습니다. Llama 3.2 vision 모델이 인식하기 위한 최소 이미지 사이즈는 특별히 언급된 내용이 없는 것 같습니다.최대 이미지 사이즈 같은 경우 1120x1120 사이즈 까지 지원하는 것으로 알려져 있습니다. colab에서 테스트해보시기가 어려우신 환경이실 경우huggingface에 로그인하신뒤에 https://huggingface.co/meta-llama/Llama-3.2-11B-Vision-Instruct위 링크로 Llama 3.2 vision instruct 모델 페이지에 접속하시면 우측에 [Inference Providers]라고 해당 부분에 이미지를 업로드하고 원하시는 프롬프트를 입력하셔서 테스트해보실 수 있는 환경을 제공하고 있으니 해당 방법으로 테스트해보시길 추천드립니다. (사진) 좋은 하루되세요~.감사합니다.
- 0
- 1
- 43
질문&답변
일부 교육 동영상 재생이 안됩니다
안녕하세요~. 반갑습니다.먼저 수강에 불편을 드려서 죄송합니다. 동영상 재생 문제 관련해서는 오른쪽 하단에 [문의하기] 버튼을 눌러서 인프런 서비스지원팀에 문의해보시겠어요? 좋은 하루되세요.감사합니다.
- 0
- 2
- 17
질문&답변
검증 방법 질문입니다.
안녕하세요~. 반갑습니다.네. 말씀해주신 내용이 맞습니다. 전체 동작과정은 아래와 같습니다.첫번째로 유저 프롬프트가 들어오면 이를 LLM으로 SQL Query 형태로 변경합니다.두번째로 첫번째 과정에서 LLM이 생성한 SQL Query에 오류가 없는지 LLM으로 검증합니다.좋은 하루되세요~.감사합니다.
- 0
- 2
- 26
질문&답변
API 특정 짓는 법
안녕하세요~. 반갑습니다. 1. GPT가 질문에 대한 적절한 답변을 하기 위해서 API 호출하는 것이 어떤 원리인지 잘 모르겠습니다.->필요한 tool들을 연동하면 LLM에게 해당 tool들의 이름과 description 등이 function 형태로 넘어갑니다.LLM이 프롬프트를 분석해서 연동된 사용가능한 tool 리스트 중에서 현재 요청된 프롬프트에서 특정 tool 호출이 필요하다고 판단되면 해당 tool을 호출합니다.즉 LLM에게 사용가능한 tool들의 이름과 description 등을 전달하면 LLM이 필요한 경우 해당 tool을 사용할수 있다는 사실을 인지하고 있다가 해당 tool 사용이 필요하다고 판단되면 해당 tool을 호출하는 구조입니다.따라서 당연히 LLM이 항상 100% 정확도를 보여주는 것은 아니기 때문에 경우에 따라서는 tool 호출이 필요한 상황인데 tool 호출을 하지않거나 tool 호출이 필요하지 않은 상황인데 tool 호출을 할 수도 있습니다.OpenAI와 같이 LLM을 만드는 회사에서 GPT 모델을 Training하는 과정에서 다양한 Tool use 케이스에 대한 프롬프트 시나리오를 Training data로 모아서 GPT 모델을 학습시키게 되고, 결과적으로 학습이 끝난 GPT 모델이 Training data에 있던 Tool use 케이스들을 토대로 Tool 호출에 대한 판단능력이 생기게 되는 것입니다.2. 정해진 API 만 사용할 수 있도록 정하는 방법이 있다면 무엇인가요? (예. 기상청 데이터만 사용하고 싶을 때)->정해진 API만 강제하고 싶으실 경우(예를 들어, 기상청 데이터) 강제하고 싶은 API를 function 형태로 정의한뒤에 예제 코드에서 살펴본 것처럼 Chat Completion API 호출시의 tool_choice 부분에 function 부분에 강제하고 싶은 API를 정의한 function의 이름을 지정해주시면 됩니다.좋은 하루되세요.감사합니다.
- 0
- 2
- 38
질문&답변
소량의 fineTuning 이 미치는 영향
안녕하세요~. 반갑습니다.말씀해주신대로 fine-tuning 데이터를 20개만 사용할 경우 데이터가 부족한 상황으로 간주할 수 있습니다. 해당 예제는 빠른 진행을 위해서 최소한의 데이터로 fine-tuning을 진행한 것입니다. 일반적으로 권장하는 fine-tuning 데이터셋의 개수는 최소 몇백개 이상입니다. 다만 fine-tuning이라는게 수학공식처럼 이런 상황에서는 이렇게된다 이렇게 딱 정해진게 아니기 때문에 데이터 도메인이나 데이터 품질이 어떻느냐에 따라서 적절한 fine-tuning 데이터셋 개수는 상황에 따라 달라질 수 있습니다. 좋은 하루되세요.감사합니다.
- 0
- 2
- 42
질문&답변
transformer 기계번역 강의 오류 질문
안녕하세요~. 반갑습니다.먼저 수강에 불편을 드려서 죄송합니다.강의 영상 촬영시점 이후에 많은 시간이 흘러서 tensorflow 버전과 관련된 충돌이 발생하는 것 같습니다.tensorflow 버전을 정리한 아래 colab 파일로 실습 진행 부탁드립니다. (맨위에 셀에서 pip install 실행후 입력창이 뜨면 y 라고 입력하고 엔터를 누르시면 됩니다.) https://colab.research.google.com/drive/18nxotMTc2Qqc2_tARhcvmz8laFOzYfWm?usp=sharing 좋은 하루 되세요.감사합니다.
- 0
- 2
- 38
질문&답변
파인튜닝모델에게 일반적인 질문 할 경우에 대한 궁금증
안녕하세요~. 반갑습니다. 소규모 데이터셋으로 파인 튜닝을 진행할 경우 LLM이 기존에 가지고 있던 지식을 잊어버릴 수 있습니다. 이를 좀더 전문적인 용어로 Catastrophic Forgetting이라고 부릅니다.이를 방지하려면 [범용 데이터 + 파인튜닝 데이터]로 데이터셋을 구성해서 파인튜닝하면 이런 현상을 완화할 수 있지만 이렇게되면 파인튜닝에 필요한 컴퓨팅 리소스가 커지기때문에범용적인 답변도 잘하고 파인튜닝한 도메인 지식에 대한 답변도 잘하는 시스템을 만들고 싶은 경우, 파인튜닝한 모델과 기존 범용모델 2개를 가지고 있는 상태에서 사용자의 유저 프롬프트가 들어오면 이를 파인튜닝한 모델에 적합한 프롬프트인지 범용 모델에 적합한 프롬프트인지 분류(Classification)하는 별도의 알고리즘을 만들고유저 프롬프트가 파인튜닝한 모델에 적합한 프롬프트면 파인튜닝한 모델에 보내서 답변결과를 생성하고 유저 프롬프트가 범용 모델에 적합한 프롬프트면 범용 모델에 보내서 답변결과를 생성하는 형태로 우회해서 전체 시스템을 구현할 수 있습니다.좋은 하루되세요~.감사합니다.
- 0
- 2
- 47
질문&답변
모델에 대한 성능평가 방법
안녕하세요~. 반갑습니다.LLM 모델에 대한 성능 평가는 일반적으로 표준 벤치마크 데이터셋에 대한 정확도 측정을 통해 성능을 평가합니다.예를 들어 아래 Llama 3.3과 다른 LLM 모델들간의 성능 비교표를 보면 MMLU나 MMLU PRO와 같은 벤치마크 데이터셋에 대해서 각 LLM 들의 정확도가 어느정도되는지 확인해보실수 있습니다. (MMLU와 MMLU Pro에 대한 자세한 설명은 [MMLU(Massive Multitask Language Understanding) 벤치마크 데이터셋 소개], [MMLU-PRO 벤치마크 데이터셋 소개] 강의 영상을 참조하세요.)(사진)좋은 하루되세요~.감사합니다.
- 0
- 1
- 53
질문&답변
"Airline Red Teaming Korean" 데이터 클론시 에러가 발생합니다.
안녕하세요~. 반갑습니다.먼저 제 강의를 4개나 수강해주셔서 정말 감사합니다^^.먼저 dataset_url 부분을 공식 예제에서 제공하는 영어 버전 Airline Read Teaming 데이터인 https://smith.langchain.com/public/c232f4e0-0fc0-42b6-8f1f-b1fbd30cc339/d 로 변경해서 해당 데이터셋 clone이 잘 진행되는지 확인해보시길 바랍니다.1번은 잘 clone이 되는데 제가 제공드린 https://smith.langchain.com/public/c9e6b893-cbee-4060-bcf5-c860705c9a1a/d 로는 clone이 잘 안되신된다면 위에 언급드린 https://smith.langchain.com/public/c232f4e0-0fc0-42b6-8f1f-b1fbd30cc339/d 를 이용해서 영어버전으로 테스트를 진행해보시거나 꼭 한글로 테스트해보고 싶으시다면 번거로우시겠지만 크롬 브라우저로 https://smith.langchain.com/public/c9e6b893-cbee-4060-bcf5-c860705c9a1a/d 로 접속해서 Examples 탭에 있는 예제들을 수동으로 복사한뒤 langsmith의 Datasets & Experiments 탭쪽에 접속해서 내 데이터셋을 새로 만들고 해당 데이터셋에 복사한 내용을 붙여넣어서 예제를 생성한뒤 테스트해보시길 추천드립니다.좋은 하루되세요~.감사합니다.
- 0
- 2
- 39
질문&답변
storm 아키텍쳐 구현하기
안녕하세요~. 반갑습니다.먼저 수강에 불편을 드려서 죄송합니다.강의 영상 촬영시점 이후로 OpenAI API가 업데이트되면서 에러가 발생한 것 같네요.최신 API에 맞게 코드를 다시 정리한 아래 colab 링크를 통해 실습 진행 부탁드립니다. https://colab.research.google.com/drive/1iBF1bnc3FGsVWfPOHDYpCamaeXWmlc4h?usp=sharing 좋은 하루되세요.감사합니다.
- 1
- 2
- 93