[VLM101] ファインチューニングでマルチモーダルチャットボットを作る (feat.MCP / RunPod)
dreamingbumblebee
¥9,760
初級 / Vision Transformer, transformer, Llama, Model Context Protocol
4.6
(33)
ビジョン言語モデル(Vision-Language Model, VLM)の概念と活用方法を理解し、実際にLLaVAモデルをOllamaベースの環境で実行し、MCP(Model Context Protocol)と連動する過程を実習する入門者向けの講義です。 この講義は、マルチモーダルモデルの原理、量子化(Quantization)、サービス及び統合デモ開発まで扱い、理論と実習をバランスよく提供します。
初級
Vision Transformer, transformer, Llama










![[AIの裏技] 業務爆速化の秘密、Agentic AI講義サムネイル](https://cdn.inflearn.com/public/files/courses/340717/cover/ai/1/3b5cb844-25b5-4576-8224-d293d0989376.png?w=420)