メイド・イン・RAG(ローカルLLM Q&Aシステム)With Docker + ollama + R2R
Docker + ollama + R2Rフレームワークを利用して、実習2時間でローカルLLM with RAGベースのQ&Aシステムを構築します。 (社内/インハウスQ&Aシステム、個人ポートフォリオ、AI活用業務能力、商用サービスまで可能です)
Docker
Docker
AI
AI
wsl
wsl
LLM
LLM
Docker + ollama + R2Rフレームワークを利用して、実習2時間でローカルLLM with RAGベースのQ&Aシステムを構築します。 (社内/インハウスQ&Aシステム、個人ポートフォリオ、AI活用業務能力、商用サービスまで可能です)