AISchool
@aischool
Học viên
9,654
Đánh giá khóa học
741
Đánh giá khóa học
4.6
- AISchool ( http://aischool.ai/ )
- AISchool 유튜브 채널 운영 ( https://www.youtube.com/@aischool_ai )
- 서울대학교 인공지능 및 컴퓨터 비전 연구실 석사
- [솔라리스의 인공지능 연구실] 블로그 운영
- [텐서플로로 배우는 딥러닝] 집필
- S전자 컴퓨터 비전 관련 프로젝트 수행
- 기업대상 [AI 컨설팅 서비스] 제공
- 에이아이스쿨 [TensorFlow와 실습 프로젝트로 배우는 딥러닝-컴퓨터비전 Basic 코스] 강의 진행
Khóa học
Đánh giá khóa học
stephenlim0745
·
Mô hình ngôn ngữ lớn cho mọi người LLM(Large Language Model) Phần 2 - Tạo ChatGPT riêng của tôi với LangChainMô hình ngôn ngữ lớn cho mọi người LLM(Large Language Model) Phần 2 - Tạo ChatGPT riêng của tôi với LangChain- Cách kiếm tiền bằng AI - Tìm hiểu AI Transformation qua các trường hợp thực tế
scmoon
·
Mô hình ngôn ngữ lớn cho mọi người LLM (Mô hình ngôn ngữ lớn) Phần 1 - Dùng thử Tinh chỉnh Llama 2Mô hình ngôn ngữ lớn cho mọi người LLM (Mô hình ngôn ngữ lớn) Phần 1 - Dùng thử Tinh chỉnh Llama 2sinkei94564416
·
Mô hình ngôn ngữ lớn cho mọi người LLM(Large Language Model) Phần 2 - Tạo ChatGPT riêng của tôi với LangChainMô hình ngôn ngữ lớn cho mọi người LLM(Large Language Model) Phần 2 - Tạo ChatGPT riêng của tôi với LangChain- Giới thiệu về Deep Learning với TensorFlow 2.0
Bài viết
Hỏi & Đáp
Adaptive RAG 질문드립니다.
안녕하세요~. 반갑습니다.먼저 강의를 잘 듣고 계시다니 기쁘네요^^.1. Adaptive RAG 같은 경우 지금은 공식문서에서 제거되고 Agentic RAG 구조를 다룬 https://docs.langchain.com/oss/python/langgraph/agentic-rag 링크 1개만 남은 상태가 된것 같습니다.Plan-and-Execute, ReWOO, Reflection, Reflextion, STORM 등과 같은 내용은 지금은 공식문서에서 제거된 상태로 보이며, 현재 시점에서는 잘 사용되지 않는 기술이라서 제거되었다기보다는 Langchain/LangGraph 공식문서가 예전에는 다양한 use cases를 포함하는 방향으로 구성되어 있었는데 최근에는 문법위주로 서술하고 use cases는 1~2개만 포함하는 형태로 공식문서의 방향성을 변경해서 그런것 같습니다. 최신 gpt 모델을 연동해서 사용한다면 한글 프롬프트로 입력하나 영어 프롬프트로 입력하나 성능상의 큰 차이는 없을 것입니다. 다만 한글 프롬프트로 테스트하고 싶으실 경우, 다른 구성요소들도 다 한글 텍스트 기반한 자료로 변경을 해주어야 전체적인 의도대로 동작할 것입니다. 예를 들어 Adaptive RAG 예제 같은 경우 "https://lilianweng.github.io/posts/2023-06-23-agent/", "https://lilianweng.github.io/posts/2023-03-15-prompt-engineering/", "https://lilianweng.github.io/posts/2023-10-25-adv-attack-llm/",이렇게 3개 데이터를 불러와서 사용하는데 한글 프롬프트로 테스트하고 싶으면 불러오는 자료도 한글로된 웹사이트 블로그등을 사용해서 테스트하시면 될 것입니다.그럼 오늘도 좋은 하루되세요 :)감사합니다.
- 0
- 1
- 41
Hỏi & Đáp
LangChain에서 제공하는 Tool과 MCP의 차이점
안녕하세요~. 반갑습니다.먼저 강의를 잘 듣고 계시다니 기쁘네요^^.2가지 방식의 차이는 그냥 AI 에이전트에게 사용할 tool을 부여하는 방식의 차이라고 생각하시면됩니다.저희가 어떤 데이터를 전달할때 .json형태로 전달할 수도 있고 .xml형태로 전달할 수도 있는 것처럼AI 에이전트 한테 어떤 기능의 tool을 부여할때1. langchain에서 미리 구현해둔 tool을 이용해서 부여함2. 외부 MCP 서버에 정의된 tool을 호출해서 부여함이렇게 2가지 선택지가 있는 것 뿐이고 목적과 결과는 비슷하다고 생각하시면 됩니다.즉, 단순히 구현방식/프로토콜의 차이라고 생각하시면 됩니다.그럼 오늘도 좋은하루되세요 :)감사합니다.
- 0
- 2
- 70
Hỏi & Đáp
강의자료는 어떻게 보나요
안녕하세요~. 반갑습니다.먼저 수강에 불편을 드려서 죄송합니다.강의 같은 경우 1개의 슬라이드 pdf의 내용이 여러개의 영상으로 분리되어 있습니다.1강의 경우를 예시로 들면, 강의 제목과 매칭되는 pdf는 다음과 같습니다. 인공지능, 머신러닝, 딥러닝 - [딥러닝 알고리즘의 등장배경.pdf]머신러닝(Machine Learning)의 정의 - [딥러닝 알고리즘의 등장배경.pdf]지도 학습(Supervised Learning), 비지도 학습(Unsupervised Learning), 강화 학습(Reinforcement Learning) - [딥러닝 알고리즘의 등장배경.pdf]딥러닝(Deep Learning) - [딥러닝 알고리즘의 등장배경.pdf]딥러닝, 텐서플로 응용분야 - [아래 링크로 전달]간략히 살펴보는 딥러닝의 역사 - [딥러닝의_역사.pdf]머신러닝의 기본 프로세스 - 가설 정의, 손실함수 정의, 최적화 정의 - [머신러닝의_기본_프로세스.pdf]Batch Gradient Descent, Stochastic Gradient Descent, Mini-Batch Gradient Descent - [머신러닝의_기초_이론들.pdf]Training Data, Validation Data, Test Data & 오버피팅(Overfitting) - [머신러닝의_기초_이론들.pdf]소프트맥스 회귀(Softmax Regression) & 크로스 엔트로피(Cross-Entropy Loss Function) & One-hot Encoding & MNIST - [머신러닝의_기초_이론들.pdf]다양한 컴퓨터비전 문제영역 소개 - [컴퓨터비전.pdf]TensorFlow 2.0 소개 - [TensorFlow 2.0 소개.pdf]파이썬(Python) 설치 - [텐서플로 설치.pdf]pip를 이용한 TensorFlow 설치 - [텐서플로 설치.pdf]TensorFlow 2.0을 이용한 선형 회귀(Linear Regression) 알고리즘 구현 - [머신러닝의_기본_프로세스.pdf]TensorFlow 2.0 케라스 서브클래싱(Keras Subclassing) - [Keras_Subclassing.pdf]TensorFlow 2.0과 Softmax Regression을 이용한 MNIST 숫자분류기 구현 - [Keras_Subclassing.pdf]다층 퍼셉트론 MLP - [ANN.pdf]TensorFlow 2.0과 ANN을 이용한 MNIST 숫자분류기 구현 - [ANN.pdf]오토인코더(AutoEncoder)의 개념 - [오토인코더.pdf]TensorFlow 2.0과 오토인코더를 이용한 MNIST 데이터 재구축 - [오토인코더.pdf] [딥러닝, 텐서플로 응용분야] 영상 같은 경우 pdf가 빠져 있는것 같아서 아래 링크로 전달드립니다.https://drive.google.com/file/d/166xJu-u1N39nJofpIM_KEQoFw_GIiklr/view?usp=sharing 좋은 하루되세요.감사합니다.
- 0
- 2
- 46
Hỏi & Đáp
LLM 기반 문서 유사도 산출 가능성 관련 문의드립니다
안녕하세요~. 반갑습니다.먼저 강의가 도움이 되셨다니 기쁘네요^^.말씀해주신 부분에 대해 답변드리면일반적으로 두 문서를 입력 받아서 두 문서간의 유사도를 비교하는데 가장 많이 사용되는 방법은 2개 문서를 임베딩 벡터(Embedding Vector)로 변환하고 2개 문서의 임베딩 벡터값간의 코사인 유사도(Cosine Similarity)를 계산하는 것입니다. 2개 문서를 임베딩 벡터로 변환하고 Cosine Similarity를 계산하면 2개 문서의 의미론적인 유사도에 대한 값이 0~100 사이의 정규화된 값으로 계산되어서 정량적으로 유사한 정도를 측정할 수 있습니다. (이때 임베딩 벡터 변환을 어떤 모델을 사용하느냐에 따라 성능이 달라질 수 있는데 가장 많이 사용되는 모델은 강의에서 설명드리는 OpenAI Embedding 모델들 입니다. https://platform.openai.com/docs/models/text-embedding-3-large )범용적인 도메인에 대해서 의미론적인 유사도를 기준으로 2개 문서의 정량화된 점수를 측정해야하는 상황이면 위에 언급드린 [문서의 텍스트를 임베딩 벡터 변환 -> 코사인 유사도 비교]가 가장 보편적인 선택이지만 좀더 도메인에 특화된 형태로 작업을 진행하고 싶다면 2개 문서의 유사도에 대한 나만의 기준 점수산정공식을 ground truth로 만들어서(어떤 맥락에서 퍼지 해시를 언급해주신지에 대해서는 말씀해주신 내용만으로는 정확히 알수없지만 나만의 퍼지 해시 공식같은걸 사용하실 수도 있을것입니다.) [2개 문서를 input, 내가 산정한 ground truth값]을 트레이닝 데이터로 모아서 GPT와 같은 모델들을 내 트레이닝 데이터셋에 맞게 Fine-Tuning하고 이 파인튜닝된 모델을 활용하는 방법도 사용할 수 있습니다. 다만 이경우 좀더 많은 시간과 노력이 들어갈 수 있기 때문에 1번 방법으로 먼저 테스트한후 만족스럽지 않은 성능이 나올경우 2번안으로 고려해볼 수 있는 선택지일 것 같습니다.그럼 오늘도 좋은 하루되세요~.감사합니다.
- 0
- 1
- 84
Hỏi & Đáp
『6. LLM 용어 정리 - 인컨텍스트 러닝(In-context learning)』에 대한 문의
안녕하세요~. 반갑습니다. In-Context Learning은 말그대로 모델이 추가적인 학습없이 컨텍스트 내에서 문맥을 파악하고 학습한다는 개념입니다.지금은 LLM이 워낙 발달해서 당연하게 느껴지는 개념일 수도 있지만 예전에 LLM이 등장하기 전에 머신러닝/딥러닝 커뮤니티에서 학습(learning)이라는 개념은풀고자하는 문제에 대한 대량의 training 데이터를 모아서긴 시간을 들여서 해당 데이터로 모델의 weight를 수정하는 많은 시간과 노력이 들어가는 과정이었습니다.하지만 LLM이 등장하면서 전통적인 의미의 머신러닝/딥러닝 학습(learning)이 아니라 모델의 weight 변경 없이 프롬프트 수정만으로 새로운 지식을 모델이 학습가능하다는 의미에서 전통적인 의미의 learning과 반대되는 개념의 In-Context learning이라는 개념이 등장하게 된 것입니다. 좋은 하루되세요.감사합니다.
- 0
- 2
- 243
Hỏi & Đáp
슬리피지 설정 문의입니다.
안녕하세요~. 반갑습니다.말씀해주신대로 거래 수수료를 백테스팅시에 고려하는 부분도 중요한 부분 중에 하나입니다.현재 국내거래소 사용한다고 가정하면업비트의 경우 원화마켓 기준 한번의 매매마다 0.05%의 거래수수료, 빗썸의 경우 한번의 거래마다 0.04%의 거래 수수료를 내야합니다. ( https://upbit.com/service_center/fees )따라서 한번의 거래에서 매수와 매도가 1번씩 일어나므로슬리피지 계산시에 업비트의 경우 0.1%(값으로는 0.001) 빗썸의 경우 0.08%(값으로는 0.0008)만큼 거래수수료를 추가해서 계산하시면 됩니다. 그럼 오늘도 좋은 하루되세요.감사합니다.
- 0
- 1
- 65
Hỏi & Đáp
trainer.train() 실행했는데 API key를 입력하라고 합니다. ㅠ
안녕하세요~. 반갑습니다.먼저 수강에 불편을 드려서 죄송합니다. 강의 영상 촬영 시점 이후로 버전이 업데이트되면서 Weights & Biases(W&B) 설정이 기본으로 포함되도록 변경된 것 같네요.Weights & Biases(W&B) 설정을 off 하려면 TrainingArguments를 선언할때 아래와 같은 설정 값을 추가해주시면 됩니다.report_to="none"따라서 해당 설정값을 추가한 아래 colab 링크로 실습 진행 부탁드립니다.https://colab.research.google.com/drive/1RoB95uhQjEZ97O04NYDrFI9yLHixPcxt?usp=sharing (2025-08-22 버전)좋은 하루되세요.감사합니다.
- 0
- 2
- 103
Hỏi & Đáp
Agent Auto on / off 관련 문의
안녕하세요~. 반갑습니다.저 같은 경우는 기본적으로 o3 모델을 사용하고 o3 모델이 잘 안될경우에 gemini 모델로 다시 시도합니다. o3나 gemini를 사용하는 이유는 현재까지 나온 모델중 가장 성능이 좋기때문입니다. o3를 기본으로 사용하고 gemini 모델로 다시 시도하는 이유는 동일한 문제라도 o3로는 잘안되다가 llm 모델을 바꿔서 gemini로 시도할 경우 잘 해결되는 경우도 있기 때문입니다.본 강의에서는 복잡한 코딩 작업등은 거의 진행하지 않지만 복잡한 코딩 작업에 활용하다 보면 복잡한 코딩 작업에는 확실히 o3나 gemini 같은 reasoning 기능이 탑재된 llm 모델의 코딩 능력이 다른 llm 모델보다 훨씬 좋다는 것을 체감할 수 있습니다.요약:1. o3를 기본으로 사용2. o3로 잘안되면 gemini로 다시 시도3. o3나 gemini를 사용하는 이유 = 가장 성능이 좋기 때문에좋은 하루되세요~.감사합니다.
- 0
- 1
- 63
Hỏi & Đáp
유튜브 요약이 안됩니다.
안녕하세요~. 반갑습니다. 우선 수강에 불편을 드려서 죄송합니다.말씀해주신대로 다시 테스트해본 결과 Get_Transcript tool 호출이 제대로 되지 않는 현상을 저도 확인하였습니다. 영상 촬영시점 이후로 유튜브 api가 업데이트되었는데 저희가 연동하는 https://github.com/adhikasp/mcp-youtube mcp서버에서 해당 업데이트 내용을 추가해서 mcp 서버를 추가로 업데이트하지않아서 발생한 현상으로 생각됩니다. (해당 mcp 서버의 마지막 개발을 위한 commit 내역이 약 3개월 전입니다.) 좀더 active하게 개발되고 있는 유튜브 관련 MCP 서버를 찾아보고 추후에 유튜브 영상 요약 관련 강의를 추가적으로 업로드하도록 하겠습니다. 우선은 https://github.com/adhikasp/mcp-youtube MCP 서버를 사용하는 실습 영상들은 스킵하고 강의를 수강해주시기 바랍니다. (다만 뒤에 강의 진행을 위해서 해당 영상에서 설치하는 uvx 프로그램은 설치해주셔야합니다.) 다시 한번 수강에 불편을 드려서 죄송합니다.좋은 하루되세요~.감사합니다.
- 0
- 2
- 189
Hỏi & Đáp
비동기 방식으로 agent를 구성할 필요성이 궁금합니다.
안녕하세요~. 반갑습니다.먼저 강의를 잘 듣고 계시다니 기쁘네요 🙂 말씀해주신 부분을 확인해보니 현재 로직상 말씀해주신대로 plan -> execute -> replan 이 순차적으로 실행되는 구조라 비동기 방식의 이점이 딱히 없는 상태인 것 같습니다.즉, 그냥 동기 방식 def로 바꿔도 큰 차이는 없을 것 같습니다. 비동기 방식으로 예제가 작성된 정확한 이유는 알수 없지만, 처음 예제를 만들때 뭔가 비동기적인 로직을 넣으려는 구상이 있었는데 예제 최종본에서는 해당 구상이 실현되지 못한게 아닐까 싶습니다. 좋은 하루되세요~.감사합니다.
- 0
- 2
- 148






