강의

멘토링

커뮤니티

NEW
AI Technology

/

AI Agent Development

ローカルLLM(Local LLM)活用ガイド Part 1 - small LLM(sLLM)の活用 & LLMの性能評価(Evaluation)および改善

様々なローカルLLM(Qwen、Gemma)を活用する方法を学習し、LLMシステムの性能を効率的に評価(Evaluation)し改善する様々な技法を見ていきます。

14名 が受講中です。

難易度 中級以上

受講期間 無制限

  • AISchool
실습 중심
실습 중심
AI 활용법
AI 활용법
에이전트
에이전트
AI
AI
LLM
LLM
LangChain
LangChain
AI Agent
AI Agent
LangGraph
LangGraph
실습 중심
실습 중심
AI 활용법
AI 활용법
에이전트
에이전트
AI
AI
LLM
LLM
LangChain
LangChain
AI Agent
AI Agent
LangGraph
LangGraph

受講後に得られること

  • ローカルLLM(Qwen、Gemma)を利用してAIエージェントを実装する方法

  • LLMシステムの性能を評価(Evaluation)し改善する方法

  • 高品質AIエージェントを実装する方法

ローカルLLM(Qwen、Gemma)の活用方法を学習し、様々なローカルLLMでAIエージェントを実装してみます。

実習を通じてローカルLLM(Local LLM)を活用し、様々なAIエージェントを実装してみます。

  • ローカルLLM(Qwen、Gemma)を効率的に活用する方法

  • LLMシステムの性能を効果的に評価(Evaluation)し、改善する方法


こんな方におすすめです

ローカルLLM(Qwen、Gemma)を活用してAIエージェントを

作ってみたい方

OpenAI APIではなくローカルLLMでAIエージェントを実装してみたい方

LLMシステムの実装能力を

向上させたい方

LLMの性能を効率的に評価(Evaluation)し、改善する方法を学習したい方

最新のAIトレンドを

見逃したくない方

最新のLLMモデルをフォローアップ(follow-up)しながら最新のAIトレンドを見逃したくない方

前提コース✅

👋 本講座はPython、自然言語処理(NLP)、LLM、ラングチェーン(LangChain)、LangGraphに関する事前知識が必要な講座です。必ず以下の講座を先に受講するか、それに準ずる知識を身につけた上で本講座を受講してください。

みんなのための大規模言語モデル LLM Part 5 - LangGraphで自分だけのAIエージェントを作る

Q&A 💬

Q. ローカルLLM(Local LLM)とは何ですか?

ローカルLLM(Local LLM)は「自分のPC/サーバー(ローカル環境)で直接実行する大規模言語モデル(LLM)」を意味します。つまり、OpenAI APIのようにクラウド(リモートサーバー)にリクエストを送る方式ではなく、自分のコンピュータのCPU/GPUでモデルを動かしてテキスト生成/要約/翻訳/コーディング支援などを行う形態です。代表的なローカルLLMモデルとしてQwenとGemmaモデルがあります。


Q. ローカルLLM(Local LLM)を活用する際の利点は何ですか?

オープンソースのローカルLLMを活用する際の利点は以下の通りです。

  1. データ管理/プライバシー

  • 機密データ(内部文書、顧客情報)を外部APIに送信せずオンプレミス/社内VPCで処理可能。

  • セキュリティ監査/規制遵守(金融・医療など)において有利。

  1. コスト構造を「予測可能」にできる

  • APIのように「トークンごとの課金」ではなく、GPU/サーバーコストとして固定化可能(トラフィックが大きいほど有利になりやすい)。

  • キャッシュ/バッチ/量子化などで単価を直接下げることができる。

  1. カスタマイズ(チューニング/ドメイン特化)が容易

  • LoRA/QLoRA、DPO、RAGチューニング、システムプロンプト固定など、業務ドメインに合わせた最適化が可能。

  • 出力フォーマット(例:JSON厳格)、用語/トーン/ルール遵守率を実務基準に引き上げやすい。

  1. ベンダーロックインの軽減

  • 特定企業のポリシー変更、価格改定、モデル廃止、レート制限の変化に左右されにくい。

  • 必要であればいつでも他のモデルに切り替え可能。

  1. 透明性/デバッグの利点

  • 重み/アーキテクチャ情報が公開されることが多く、性能問題をより体系的に診断可能。

  • 安全性/バイアステストを内部基準で実施しやすい。


Q. 事前知識は必要ですか?

本[ローカルLLM(Local LLM)活用ガイド Part 1 - small LLM(sLLM)活用 & LLMの性能評価(Evaluation)及び改善]講義は、ラングチェーン(LangChain)、ラングラフ(LangGraph)ライブラリとLLMを利用してAIエージェントを実装するプロジェクト実習を扱っています。したがって、Python、自然言語処理、LLM、ラングチェーン(LangChain)、ラングラフ(LangGraph)に関する基礎知識を持っているという前提で講義が進められます。したがって、事前知識が不足している場合は、必ず先行講義である[すべての人のための大規模言語モデルLLM Part 5 - LangGraphで自分だけのAIエージェントを作る]講義を先に受講されることをお勧めします。] first.] trước.

こんな方に
おすすめです

学習対象は
誰でしょう?

  • ローカルLLM(Local LLM)の活用法を学びたい方

  • ローカルLLM(Qwen、Gemma)でAIエージェントを作ってみたい方

前提知識、
必要でしょうか?

  • Pythonの使用経験

  • 先行講義 [すべての人のための大規模言語モデル LLM Part 5 - LangGraphで自分だけのAIエージェントを作る] 受講経験

こんにちは
です。

9,515

受講生

725

受講レビュー

354

回答

4.6

講座評価

31

講座

カリキュラム

全体

41件 ∙ (7時間 52分)

講座掲載日: 
最終更新日: 

受講レビュー

まだ十分な評価を受けていない講座です。
みんなの役に立つ受講レビューを書いてください!

期間限定セール

¥49,500

25%

¥8,148

AISchoolの他の講座

知識共有者の他の講座を見てみましょう!

似ている講座

同じ分野の他の講座を見てみましょう!