inflearn logo
知識共有
inflearn logo

[VLM101] ファインチューニングでマルチモーダルチャットボットを作る (feat.MCP / RunPod)

ビジョン言語モデル(Vision-Language Model, VLM)の概念と活用方法を理解し、実際にLLaVAモデルをOllamaベースの環境で実行し、MCP(Model Context Protocol)と連動する過程を実習する入門者向けの講義です。 この講義は、マルチモーダルモデルの原理、量子化(Quantization)、サービス及び統合デモ開発まで扱い、理論と実習をバランスよく提供します。

難易度 初級

受講期間 無制限

Vision Transformer
Vision Transformer
transformer
transformer
Llama
Llama
Model Context Protocol
Model Context Protocol
Vision Transformer
Vision Transformer
transformer
transformer
Llama
Llama
Model Context Protocol
Model Context Protocol

¥9,746