강의

멘토링

커뮤니티

NEW
AI Technology

/

AI Agent Development

ローカルLLM(Local LLM)活用ガイド Part 1 - small LLM(sLLM)の活用 & LLMの性能評価(Evaluation)および改善

様々なローカルLLM(Qwen、Gemma)を活用する方法を学習し、LLMシステムの性能を効率的に評価(Evaluation)し改善する様々な技法を見ていきます。

14名 が受講中です。

難易度 中級以上

受講期間 無制限

  • AISchool
AI
AI
LLM
LLM
LangChain
LangChain
AI Agent
AI Agent
LangGraph
LangGraph
AI
AI
LLM
LLM
LangChain
LangChain
AI Agent
AI Agent
LangGraph
LangGraph

受講後に得られること

  • ローカルLLM(Qwen、Gemma)を利用してAIエージェントを実装する方法

  • LLMシステムの性能を評価(Evaluation)し改善する方法

  • 高品質AIエージェントを実装する方法

ローカルLLM(Qwen、Gemma)の活用方法を学習し、様々なローカルLLMでAIエージェントを実装してみます。

実習を通じてローカルLLM(Local LLM)を活用し、様々なAIエージェントを実装してみます。

  • ローカルLLM(Qwen、Gemma)を効率的に活用する方法

  • LLMシステムの性能を効果的に評価(Evaluation)し、改善する方法


こんな方におすすめです

ローカルLLM(Qwen、Gemma)を活用してAIエージェントを

作ってみたい方

OpenAI APIではなくローカルLLMでAIエージェントを実装してみたい方

LLMシステムの実装能力を

向上させたい方

LLMの性能を効率的に評価(Evaluation)し、改善する方法を学習したい方

最新のAIトレンドを

見逃したくない方

最新のLLMモデルをフォローアップ(follow-up)しながら最新のAIトレンドを見逃したくない方

前提コース✅

👋 本講座はPython、自然言語処理(NLP)、LLM、ラングチェーン(LangChain)、LangGraphに関する事前知識が必要な講座です。必ず以下の講座を先に受講するか、それに準ずる知識を身につけた上で本講座を受講してください。

みんなのための大規模言語モデル LLM Part 5 - LangGraphで自分だけのAIエージェントを作る

Q&A 💬

Q. ローカルLLM(Local LLM)とは何ですか?

ローカルLLM(Local LLM)は「自分のPC/サーバー(ローカル環境)で直接実行する大規模言語モデル(LLM)」を意味します。つまり、OpenAI APIのようにクラウド(リモートサーバー)にリクエストを送る方式ではなく、自分のコンピュータのCPU/GPUでモデルを動かしてテキスト生成/要約/翻訳/コーディング支援などを行う形態です。代表的なローカルLLMモデルとしてQwenとGemmaモデルがあります。


Q. ローカルLLM(Local LLM)を活用する際の利点は何ですか?

オープンソースのローカルLLMを活用する際の利点は以下の通りです。

  1. データ管理/プライバシー

  • 機密データ(内部文書、顧客情報)を外部APIに送信せずオンプレミス/社内VPCで処理可能。

  • セキュリティ監査/規制遵守(金融・医療など)において有利。

  1. コスト構造を「予測可能」にできる

  • APIのように「トークンごとの課金」ではなく、GPU/サーバーコストとして固定化可能(トラフィックが大きいほど有利になりやすい)。

  • キャッシュ/バッチ/量子化などで単価を直接下げることができる。

  1. カスタマイズ(チューニング/ドメイン特化)が容易

  • LoRA/QLoRA、DPO、RAGチューニング、システムプロンプト固定など、業務ドメインに合わせた最適化が可能。

  • 出力フォーマット(例:JSON厳格)、用語/トーン/ルール遵守率を実務基準に引き上げやすい。

  1. ベンダーロックインの軽減

  • 特定企業のポリシー変更、価格改定、モデル廃止、レート制限の変化に左右されにくい。

  • 必要であればいつでも他のモデルに切り替え可能。

  1. 透明性/デバッグの利点

  • 重み/アーキテクチャ情報が公開されることが多く、性能問題をより体系的に診断可能。

  • 安全性/バイアステストを内部基準で実施しやすい。


Q. 事前知識は必要ですか?

本[ローカルLLM(Local LLM)活用ガイド Part 1 - small LLM(sLLM)活用 & LLMの性能評価(Evaluation)及び改善]講義は、ラングチェーン(LangChain)、ラングラフ(LangGraph)ライブラリとLLMを利用してAIエージェントを実装するプロジェクト実習を扱っています。したがって、Python、自然言語処理、LLM、ラングチェーン(LangChain)、ラングラフ(LangGraph)に関する基礎知識を持っているという前提で講義が進められます。したがって、事前知識が不足している場合は、必ず先行講義である[すべての人のための大規模言語モデルLLM Part 5 - LangGraphで自分だけのAIエージェントを作る]講義を先に受講されることをお勧めします。] first.] trước.

こんな方に
おすすめです

学習対象は
誰でしょう?

  • ローカルLLM(Local LLM)の活用法を学びたい方

  • ローカルLLM(Qwen、Gemma)でAIエージェントを作ってみたい方

前提知識、
必要でしょうか?

  • Pythonの使用経験

  • 先行講義 [すべての人のための大規模言語モデル LLM Part 5 - LangGraphで自分だけのAIエージェントを作る] 受講経験

こんにちは
です。

9,518

受講生

726

受講レビュー

354

回答

4.6

講座評価

31

講座

カリキュラム

全体

42件 ∙ (8時間 5分)

講座掲載日: 
最終更新日: 

受講レビュー

まだ十分な評価を受けていない講座です。
みんなの役に立つ受講レビューを書いてください!

期間限定セール

¥6,283

23%

¥8,203

AISchoolの他の講座

知識共有者の他の講座を見てみましょう!

似ている講座

同じ分野の他の講座を見てみましょう!