요즘은 GPT나 Claude API를 활용해 손쉽게 챗봇을 만들 수 있습니다. 하지만 정말 중요한 건, 모델이 어떻게 작동하는지 이해하고, 직접 튜닝하고 서빙하며 내가 원하는 방식으로 연결해본 경험이 있는가 입니다.
이 강의에서는 텍스트를 처리하는 LLM부터 이미지까지 함께 다루는 멀티모달 VLM까지 활용해, 직접 모델을 만들고 커스터마이징하며, 간단한 인터페이스까지 연동된 챗봇 시스템을 구현해봅니다. 단순한 API 호출이 아닌, 모델 튜닝부터 실전 구조 설계까지 이어지는 ‘진짜 AI 개발 경험’을 제공하는 실습형 강의입니다.
💬 Why LLM & VLM?
대화형 AI 시스템이란 무엇일까요? 저는 이렇게 정의하고 싶어요.
"고유한 대화 흐름을 갖춘 똑똑한 비서"
"텍스트와 이미지를 동시에 이해하는 멀티모달 인터페이스"
"클라우드 없이 로컬에서도 동작하는 효율적인 AI"
요즘은 LLM과 VLM을 단순히 사용하는 것을 넘어서 직접 튜닝하고 서빙하고 연결하는 능력이 중요해지고 있어요.
🧠LLM & VLM을 이해하면, 나만의 지능형 멀티모달 챗봇을 만들 수 있습니다
🧩What is LLM & VLM?
단순히 API만 호출하는 것이 아니라, 직접 모델을 만들고 튜닝하고 로컬에서 서빙하며, 텍스트 + 이미지 멀티모달 대화 챗봇을 완성해보는 여정을 함께합니다.
비전-언어 모델(Vision-Language Model, VLM)의 개념과 활용 방법을 이해하고, 실제로 LLaVA 모델을 Ollama 기반 환경에서 실행하며 MCP(Model Context Protocol)와 연동하는 과정을 실습하는 입문자용 강의입니다.
이 강의는 멀티모달 모델의 원리, 경량화(Quantization), 서비스 및 통합 데모 개발까지 다루며, 이론과 실습을 균형 있게 제공합니다.