강의

멘토링

커뮤니티

BEST
AI Technology

/

Deep Learning & Machine Learning

初めてのカスタムLLM作成 – LoRA & QLoRAファインチューニング入門

"LoRAベースの軽量ファインチューニングで自分だけのカスタムLLMを作る第一歩!" この講義は、初めてLLMに触れる方でも簡単についてこられるように設計された入門実習講義です。 複雑な理論は最小限に抑え、モデルの読み込み → データ適用 → 学習 → 結果比較まで全過程を段階的にご案内します。 短時間でLoRA・QLoRAのような最新の軽量ファインチューニング技法の流れを直接体験しながら、 「LLMファインチューニングはこうやって動くんだ」という感覚をつかむことができます。 多くのリソースがなくても、自分のドメインに特化したLLMを作る達成感を直接感じてみてください!

難易度 入門

受講期間 無制限

  • HappyAI
Deep Learning(DL)
Deep Learning(DL)
NLP
NLP
AI
AI
LLM
LLM
Fine-Tuning
Fine-Tuning
Deep Learning(DL)
Deep Learning(DL)
NLP
NLP
AI
AI
LLM
LLM
Fine-Tuning
Fine-Tuning

学習した受講者のレビュー

学習した受講者のレビュー

4.7

5.0

dlstjd6401

100% 受講後に作成

「入門者のためのファインチューニング体験程度の講義」 - ファインチューニングがどのようなものか確認してみたい人におすすめ - ファインチューニングを直接適用しようとしている現役エンジニアには非推奨 入門者向けの講義であるため、深くなく易しい内容です。 実習コードも非常にシンプルで簡潔です。

5.0

ogu0312

32% 受講後に作成

面白いです

5.0

bigdata01

32% 受講後に作成

私も講義を以前たくさんやっていた者として、論文レビューもそうですし、よく説明してくださいますね。助かっています。!!ありがとうございます。

受講後に得られること

  • ファインチューニングとは何か、そしてLoRA・QLoRAがなぜ必要なのかを簡単に理解できます。

  • 準備されたコードを実行しながら、小規模言語モデル(sLLM)を直接読み込んで学習させるプロセスを体験します。

  • 多くのリソースや難しい理論がなくても、自分の分野に合ったカスタムLLMを作る流れを身につけます。

大規模言語モデル(LLM)、LLMファインチューニング、どこから始めればいい?

LLMファインチューニング、どこから始めればいいのか?

この講義は初心者の方がファインチューニングの概念と全体の流れを素早く習得し、直接実習できるように設計されています。

複雑な数学や高度な理論は大胆に削ぎ落とし、モデルの読み込み → 学習 → 結果比較まで段階的に体験しながら「あ、ファインチューニングってこうやって動くんだ」を体で感じることができます。

何よりも全22講義、約1時間と短く簡潔に構成されているため、初めて触れる方でも気軽についてくることができます。

👉 ちなみに、データセット構築方法やHuggingface/Unslothの高度な活用法は今回の講義の範囲を超えますが、今後の上級・応用コースで扱う予定です。したがって、今回の講義では入門者も達成感を感じながら全体像を把握することに焦点を当てました。

この講義の特徴

📌最新の軽量ファインチューニング技法を完全マスター

LoRA、QLoRA、PEFTなど最新技法を基礎から丁寧に説明します。

📌多様なモデルでの実習適用

GPT-2、BERTのような古典的なモデルからOPT-350M、Llama 3.1などの最新モデルまで直接適用してみます。

📌性能比較分析を含む

Full Fine-tuningとLoRA方式の性能を直接比較しながら違いを理解します。

📌初心者に優しい構成

初めて触れる方でも簡単についてこられるよう、段階別の学習フローを提供します。

📌実習中心の講義

Hugging FaceとPyTorchベースの実習を通じてLLMファインチューニングの感覚を身につけます。

📌一目でわかるLLMファインチューニング

不要な無駄を省いて核心だけを盛り込み、約1時間以内に全体の流れを把握できます。

こんな方におすすめです

ChatGPTは使ったことがあるが、自分のデータで直接チューニングしたい新人開発者

LLMを実際に実習しながら理解したいAI入門開発者

LLMファインチューニングの全体像を短時間で掴みたい方
LoRA・QLoRAのような最新技法が気になるけど、まだ難しい理論は負担に感じる方。上級コースに進む前に、気軽な第一歩を踏み出したい方

LoRA、QLoRAが何かわからないけど聞いたことはあるLLM入門者
複雑な理論なしに、実習中心で軽量ファインチューニングの概念を自然に身につけることができます。

受講後には

  • LoRAの構造と概念を理解し、様々なモデルに直接適用できます。

  • 自分の分野に特化したLLMを作るための全体的な流れと実習経験を身につけることができます。

  • ファインチューニングの結果を直接比較し、適切な戦略を自ら選択できる見識が身につきます。

  • 自分だけのドメイン知識ベースのLLM開発に対する感覚をつかめるようになります。


このような内容を学びます。

ファインチューニングの基本概念理解

  • 事前学習済みLLMを自分のドメインに合わせて最適化するファインチューニングの原理を学びます。


LoRA & QLoRA 構造の理解

  • 複雑な理論なしに、軽量ファインチューニングの核心原理を簡単に理解できます。


Full vs. LoRA 性能比較

  • ファインチューニング方式による性能差を実験で体感します。


Huggingface + PyTorch 活用法

  • 実際のLLMファインチューニングに必要な必須フレームワークを学びます。

この講義を作った人

こんにちは、生成AI及びLLMファインチューニング実務に本気の
ハッピーAI代表イ・ジンギュです。

AI大学院で自然言語処理とLLMを専攻し、その後
サムスン電子、ソウル大学校、韓国電力公社などと共に200件以上のAI・RAGプロジェクトを遂行しながら
Private LLM構築、ファインチューニング、マルチモーダルRAGなどの実務経験を積んできました。

特に最近では、様々な企業や公共機関を対象に
LangChain、RAG、Agent LLM関連の実習型講義を多数実施しています。

今回の講義は、
❝ 初心者でも複雑な理論なしにLoRAベースのファインチューニングを実践できるように ❞
数多くの実務経験をもとに直接モデルを扱いながら学ぶ構造で設計しました。


📌 主な経歴まとめ

  • 2024~ ハッピーAI代表(生成AI・RAG専門企業運営)

  • AI大学院博士課程修了(LLM&自然言語処理専攻)

  • パブリックニュース AIコラムニスト(LLM、バイアス問題などを連載)

  • 合計200件以上のLLM・RAGプロジェクト実務経験を保有


📚 講義及び活動事例

  • KT – LLMベースのAgent LLM開発講義

  • サムスンSDS – LangChain & RAG 実習講義

  • ソウルデジタル財団 – LLM理論及びRAGチャットボット開発

その他にも多数の企業でLLMビッグデータ講義を実施


🔗 関連リンク

受講前の参考事項

実習環境

  • すべての実習コードはGoogle Colabベースで提供


  • 参考資料や整理されたノートはリンクを通じてご案内します。

学習資料

  • Notionリンクで提供いたします!

事前知識および注意事項

  • Pythonの基本文法


  • 基本的なAIおよびLLMの知識(LLM基礎理論をご存知であれば尚良いです。)

  • ChromeブラウザとGoogleアカウントさえあれば受講可能

こんな方に
おすすめです

学習対象は
誰でしょう?

  • ChatGPTのようなLLMは聞いたことがあるが、直接ファインチューニングをしたことはないLLM初心者

  • LoRAやQLoRAのような最新技術を直接実行しながら基本的な流れを学びたい初級開発者・研究者

  • sLLM(小規模言語モデル)を直接実行し、軽くチューニングしながら流れを掴みたい方

前提知識、
必要でしょうか?

  • Python基本文法(変数、関数、条件文など)

  • ディープラーニングの基礎概念(モデル、学習、損失関数などに関する基本的な理解)

  • PyTorchまたはColabの使用経験があれば役立ちます

こんにちは
です。

4,481

受講生

225

受講レビュー

51

回答

4.6

講座評価

11

講座

イ・ジンギュ | Lee JinKyu

AI・LLM・ビッグデータ分析専門家 / Happy AI 代表

👉詳細な経歴は下記のリンクからご確認いただけます。
https://bit.ly/jinkyu-profile

こんにちは。
AIとビッグデータ分析を研究・開発・教育・プロジェクトの現場で一貫して扱ってきた
ハッピーAI代表のイ・ジンギュ(工学博士、人工知能)です。

自然言語処理(NLP)とテキストマイニングを基盤に
アンケート、文書、レビュー、メディア、政策、学術データなど
多様な非定型データを分析してまいりました。
最近では生成AIと大規模言語モデル(LLM)を活用し、
組織や業務環境に合わせた実務中心のAI活用方法をお伝えしています。

サムスン電子、ソウル大学、教育庁、京畿研究院、山林庁、
国立公園管理公団、ソウル市など多数の公共機関・企業・教育機関と協業しており、
医療・コマース・生態・法学・経済・文化など多様なドメインで計200件以上の研究・分析プロジェクトを遂行しました。


🎒 講演および外注に関するお問い合わせ

コモン(Kmong)Prime専門家(上位2%)


📘 Bio (要約)

  • 2024.07 ~ 現在
    生成AI・ビッグデータ分析専門企業 ハッピーAI 代表

  • 工学博士(人工知能)
    東国大学校 人工知能大学院

    専門分野:大規模言語モデル(LLM)

    Bio (要約) 2024.07 ~ 現在 生成AI・ビッグデータ分析専門企業 Happy AI 代表 工学博士(人工知能) 東国大学校 人工知能大学院 専攻:大規模言語モデル(LLM)

    (2022.03 ~ 2026.02)

  • 2023 ~ 2025
    パブリックニュース AIコラムニスト
    (生成AIのバイアス、RAG、LLM活用イシュー)

  • 2021 ~ 2023
    AI・ビッグデータ専門企業 ステラビジョン 開発者, công ty chuyên về AI và Big Data, an AI and Big Data company

  • 2018 ~ 2021
    政府出資研究機関 自然言語処理・ビッグデータ分析研究員


🔹 専門分野(講義・プロジェクト中心)

  • 生成AIおよびLLM活用

    • プライベートLLM、RAG、エージェント

    • LoRA・QLoRAファインチューニングの基礎

  • AIベースのビッグデータ分析

    • アンケート・レビュー・報道・政策・学術データ

  • 自然言語処理(NLP)・テキストマイニング

    • トピック分析、感情分析、キーワードネットワーク

  • 公共・企業 AI業務自動化

    • 文書の要約・分類・分析

      レビュー・メディア・政策・学術データの自然言語処理(NLP)・テキストマイニング トピック分析、感情分析、キーワードネットワーク 公共・企業向けAI業務自動化 文書要約・分類・分析


🎒 Courses & Activities (選別)

2025

  • LLM/sLLM アプリケーション開発
    (ファインチューニング・RAG・Agent 基盤) – KT

2024

  • LangChain・RAGベースのLLMプログラミング – サムスンSDS

  • LLM理論およびRAGチャットボット開発実務 – ソウルデジタル財団

  • ChatGPTベースのビッグデータ分析入門 – LetUin Edu

  • 人工知能基礎・プロンプト技法 – 韓国職業開発院

  • LDA・感情分析 with ChatGPT – インフラン

  • Pythonベースのテキスト分析 – ソウル科学技術大学校

  • LangChainを活用したLLMチャットボット作成 – インフラン

2023

  • ChatGPTを活用したPython基礎 – 京畿大学校

  • ビッグデータ専門家課程 特講 – 檀国大学校

  • ビッグデータ分析基礎 – LetUin Edu


💻 Projects (要約)

  • Private LLMベースのRAGチャットボット構築 (韓国電力公社)

  • LLMベースの森林復元ビッグデータ分析 (国立森林科学院)

  • 内部ネットワーク専用 Private LLM テキストマイニングソリューション (政府機関)

  • Instruction Tuning・RLHFベースのLLMモデル開発

  • ヘルスケア・法学・政策・教育データ分析

  • アンケート・レビュー・報道データAI分析

→ 公共機関・企業・研究機関を含む200件以上の実績 bao gồm các cơ quan công quyền, doanh nghiệp và viện nghiên cứu, including public institutions, corporations, and research institutes


📖 Publication (選別)

  • Improving Commonsense Bias Classification by Mitigating the Influence of Demographic Terms (2024)

  • Improving Generation of Sentiment Commonsense by Bias Mitigation
    – International Conference on Big Data and Smart Computing (2023)

  • ニュース記事ビッグデータに基づくLLM技術認識分析 (2024)

  • NLPベースのテキストマイニング研究多数
    (森林・環境・社会・ヘルスケア分野)


🔹 その他

  • Pythonベースのデータ分析・可視化

  • LLMを活用したデータ分析

  • ChatGPT・LangChain・Agentを活用した業務生産性の向上

カリキュラム

全体

22件 ∙ (1時間 9分)

講座資料(こうぎしりょう):

授業資料
講座掲載日: 
最終更新日: 

受講レビュー

全体

35件

4.7

35件の受講レビュー

  • dlstjd64012541님의 프로필 이미지
    dlstjd64012541

    受講レビュー 1

    平均評価 5.0

    修正済み

    5

    100% 受講後に作成

    「入門者のためのファインチューニング体験程度の講義」 - ファインチューニングがどのようなものか確認してみたい人におすすめ - ファインチューニングを直接適用しようとしている現役エンジニアには非推奨 入門者向けの講義であるため、深くなく易しい内容です。 実習コードも非常にシンプルで簡潔です。

    • motovlim님의 프로필 이미지
      motovlim

      受講レビュー 3

      平均評価 5.0

      5

      64% 受講後に作成

      • jameshhjung8294님의 프로필 이미지
        jameshhjung8294

        受講レビュー 2

        平均評価 5.0

        5

        32% 受講後に作成

        • mycode200님의 프로필 이미지
          mycode200

          受講レビュー 9

          平均評価 5.0

          5

          100% 受講後に作成

          • eomhs231928님의 프로필 이미지
            eomhs231928

            受講レビュー 2

            平均評価 5.0

            5

            32% 受講後に作成

            ¥2,792

            HappyAIの他の講座

            知識共有者の他の講座を見てみましょう!

            似ている講座

            同じ分野の他の講座を見てみましょう!