[VLM101] ファインチューニングでマルチモーダルチャットボットを作る (feat.MCP / RunPod)
dreamingbumblebee
ビジョン言語モデル(Vision-Language Model, VLM)の概念と活用方法を理解し、実際にLLaVAモデルをOllamaベースの環境で実行し、MCP(Model Context Protocol)と連動する過程を実習する入門者向けの講義です。 この講義は、マルチモーダルモデルの原理、量子化(Quantization)、サービス及び統合デモ開発まで扱い、理論と実習をバランスよく提供します。
Basic
Vision Transformer, transformer, Llama














