[VLM101] ファインチューニングでマルチモーダルチャットボットを作る (feat.MCP / RunPod)
dreamingbumblebee
¥9,554
初級 / Vision Transformer, transformer, Llama, Model Context Protocol
4.5
(20)
ビジョン言語モデル(Vision-Language Model, VLM)の概念と活用方法を理解し、実際にLLaVAモデルをOllamaベースの環境で実行し、MCP(Model Context Protocol)と連動する過程を実習する入門者向けの講義です。 この講義は、マルチモーダルモデルの原理、量子化(Quantization)、サービス及び統合デモ開発まで扱い、理論と実習をバランスよく提供します。
初級
Vision Transformer, transformer, Llama









![たった1時間!自分のPCに導入する「自分専用のAI教育係」作り (Antigravity ライブコーディング) [ソースコード提供]講義サムネイル](https://cdn.inflearn.com/public/files/courses/340332/cover/ai/3/e87ee52b-1099-42db-a384-64ab8c725470.png?w=420)


![[AIの裏技] 業務爆速化の秘密、Agentic AI講義サムネイル](https://cdn.inflearn.com/public/files/courses/340717/cover/ai/1/3b5cb844-25b5-4576-8224-d293d0989376.png?w=420)