[VLM101] ํ์ธํ๋์ผ๋ก ๋ฉํฐ๋ชจ๋ฌ ์ฑ๋ด ๋ง๋ค๊ธฐ (feat.MCP / RunPod)
๋น์ -์ธ์ด ๋ชจ๋ธ(Vision-Language Model, VLM)์ ๊ฐ๋ ๊ณผ ํ์ฉ ๋ฐฉ๋ฒ์ ์ดํดํ๊ณ , ์ค์ ๋ก LLaVA ๋ชจ๋ธ์ Ollama ๊ธฐ๋ฐ ํ๊ฒฝ์์ ์คํํ๋ฉฐ MCP(Model Context Protocol)์ ์ฐ๋ํ๋ ๊ณผ์ ์ ์ค์ตํ๋ ์ ๋ฌธ์์ฉ ๊ฐ์์ ๋๋ค. ์ด ๊ฐ์๋ ๋ฉํฐ๋ชจ๋ฌ ๋ชจ๋ธ์ ์๋ฆฌ, ๊ฒฝ๋ํ(Quantization), ์๋น์ค ๋ฐ ํตํฉ ๋ฐ๋ชจ ๊ฐ๋ฐ๊น์ง ๋ค๋ฃจ๋ฉฐ, ์ด๋ก ๊ณผ ์ค์ต์ ๊ท ํ ์๊ฒ ์ ๊ณตํฉ๋๋ค.
(4.6) ์๊ฐํ 27๊ฐ
์๊ฐ์ 173๋ช
๋์ด๋ ์ด๊ธ
์๊ฐ๊ธฐํ ๋ฌด์ ํ
์ค์ต ์ค์ฌ
์ค์ต ์ค์ฌ
mcp
mcp
์ค์ต ์ค์ฌ
์ค์ต ์ค์ฌ
mcp
mcp






