プロンプトエンジニアリング(Prompt Engineering)、コンテキストエンジニアリング(Context Engineering)、ハーネスエンジニアリング(Harness Engineering)を紹介し、これら3つの手法を複合的に使用する方法を説明するセクションを3つ追加しました。
非専門家のための人工知能統計学
arigaram
¥4,343
入門 / AI
数式一つ、コード一行も使わずに、人工知能の開発と活用に必要な基礎統計の本質を突き詰めます。
入門
AI
ChatGPTやClaudeのような大規模言語モデルの基礎原理を深く探求しながら、開発能力を高めることができます。普段なかなか接することのできない多様な情報や開発技法を学ぶことができます。
大規模言語モデル(LLM)の基礎原理
LLMの制作過程
LLM을「使った経験」から一歩踏み込み、この技術が内部でどのように動いているのか・なぜそのように設計されたのか・どのような能力と限界を持っているのかを、75のセクションと339のレッスンで体系的に解説します。応用サービスの設計・実装・運用において判断を下す必要がある方のための総合講義です。
APIで呼び出す段階を超えてモデル内部の作動原理まで整理したい方。「なぜこのように応答するのか」をコードレベルで理解しようとする方。
モデルの選定・微調整の有無・評価指標・デプロイ形態を決定する必要がある方。判断根拠を持って決定したい方。
既存の開発経験をLLM領域へ拡張したい方。PyTorch・Transformersエコシステムへの入門が必要な方。
Transformer・Self-Attention・トークン化は採用の定番テーマです。面接でコードと図を使って答えられるレベルまで到達したい方。
原理 → 製作 → 運用 → 使用時点の制御の4段階の流れ。一つの講義の中でLLMの内側と外側の両方を網羅します。
各セクションは[基本]・[深化]・[実習]トラックで構成。時間が限られている場合は[基本]のみ、深みを求めるなら[深化]+[実習]まで — 学習者が自ら選択できます。
LLM「使用時点」の制御原理を、他の講義ではなかなか見られない深さで扱います。Multi-Agent Harnessまで — 最新のトレンドを基礎原理に結びつけます。
生成AIの定義・従来のAIとの違いから、自己回帰・自己注意モデル、Transformerアーキテクチャ、Scaled Dot Product AttentionとMulti-Head Attentionの実装、事前学習モデルまで。以降のすべてのセクションの共通基盤。
Open-Source vs Closed-Sourceの比較、LLMトレーニングの基本概念、トークン化の入門から応用、Foundation Modelの構築・後続作業・LLM-Ops、そしてプロジェクト企画・データ収集・精製・管理・事前学習・微調整・強化学習・評価・安全性検証に至るまでの全過程。
訓練・評価指標の運用、モデルの軽量化・デプロイ戦略、倫理・責任あるAI、最新のLLM技術現況と研究動向。実務運営で直面する争点を原理に基づいて扱います。
モデル"製作"からモデル"使用時点の制御"へと繋がる架け橋。Prompt・Context・Harness Engineering入門、3層構造の原理・設計、ハーネスが結果を変える直接体験、Multi-Agent Harnessまで。
Transformer・Self-Attention・トークン化メカニズムをコードと図で説明できます。
事前学習・微調整・アライメント段階の意義と制約を識別します。
評価・軽量化・配布・倫理的争点について、根拠に基づいた判断を下します。
Prompt·Context·Harnessの3層を設計ツールとして活用します。
Pythonの基礎文法(関数・クラス・例外処理)。線形代数・確率の基礎概念(ベクトル・行列・確率分布)。LLMの使用経験。ディープラーニングの事前知識は必要ありません — すべての概念は、最初に登場する際に定義します。
プロンプトエンジニアリング(Prompt Engineering)、コンテキストエンジニアリング(Context Engineering)、ハーネスエンジニアリング(Harness Engineering)を紹介し、これら3つの手法を複合的に使用する方法を説明するセクションを3つ追加しました。
第2版の内容検証を終え、第2版の講義動画の投稿を開始しました。投稿順序を変更し、随時ランダムにレッスンを投稿していきます。
[全面改訂版(第2版)] の公開を開始しました。セクション21から第2版を公開し、最後のセクションまで公開した後に、再びセクション1からセクション20までを公開する予定です。(変更します。順序に関係なく第2版へと改訂していきます。)
【全授業内容の変更に着手】全授業の構造を維持しつつ、各授業をよりダイナミックかつ簡潔に情報を伝える方式に変更しようと思います。従来の授業は、講義時間や説明の深さが一定ではなく、静的な発表資料を利用しているという短所がありました。これを補完するために全面的に改編し、改編した方式に合わせて授業を補充または入れ替えていきます。ただし、深い内容を盛り込んでアップロードしていた授業用動画が必要な場合は、お知らせいただければ参考資料として提供するようにいたします。
各レッスンの番号が、従来は章-節-項の番号体系になっており、セクション番号と異なっていたため混乱を招く点がありました。そこで、セクション番号に連動する形式(例:最初のセクションの最初のレッスンであればレッスン 1-1)に変更し、目次を理解しやすくしました。ただし、各レッスンのスライド番号や各添付ファイルのレッスン番号を変更するにはかなりの時間がかかる可能性があるため、ご了承いただけますと幸いです。
"LLMのためのトークン化完全攻略"というテーマを扱う初級編・中級編・上級編のセクションを追加しました。
"セクション 17. 『LLM制作の全過程を理解する』深化"と"セクション 18. 『LLM制作の全過程を理解する』実習(Python + Google Colab)"に属するレッスンの目次を大幅に補強し、改編しました。新しい目次に合わせた講義内容を準備しています。
注意事項を詳細紹介ページに追加しました。
"セクション 10. 'Transformer アーキテクチャ' 実習"の目次を改訂しました。新しい目次に合わせた講義内容を準備しています。
"セクション 16. LLM制作の全過程を理解する"の目次を改訂しました。これに伴い、既存の講義は削除し、新しい目次に合わせた講義内容を準備しています。
すべての授業を[基本]・[応用]・[実習]に区分し、接頭辞を付けました。既存の[補足]授業は[応用]授業に該当するため、「[応用]」という接頭辞を付けました。
混乱を減らし、学習過程を分かりやすくするために、すべてのセクションを一般的なセクション([基本]授業や[深化]授業を含むセクション)・深化セクション([深化]授業のみを含むセクション)・実習セクション([実習]授業のみを含むセクション)に分割しました。
このように混同の可能性を減らしたことに伴い、2025年8月22日に非公開状態に変更していたすべての授業を再度公開しました。
セクション1〜10の実習目次を公開しました。今後、時間をかけて内容を公開していく予定です。
セクション1〜10の[補充]レッスンと[深化]レッスンの目次を再度公開しました。これは、実習目次との関連性を受講生が把握できるようにするためです。
まだ完成していない[深層]コースと[補習]コースに属する授業を非公開状態に変更しました。今後、完成次第、各セクションごとに公開する予定です。受講生の混乱を避けるための措置ですので、ご理解いただけますと幸いです。
現在、応用課程の授業を追加しており、講義時間の長い授業を分割しています。そのため、授業資料にあるセクション番号と目次に表示されるセクション番号が異なる場合があります。
学習対象は
誰でしょう?
大規模言語モデルの原理を理論中心に学びたい人
LLMの制作過程を理解したい方
前提知識、
必要でしょうか?
ディープラーニング
強化学習
自然言語処理
692
受講生
38
受講レビュー
2
回答
4.6
講座評価
18
講座
ITが趣味であり、職業でもある人間です。
執筆、翻訳、アドバイザリー、開発、講義など、多岐にわたる経歴を持っています。
全体
338件 ∙ (63時間 54分)
講座資料(こうぎしりょう):
全体
5件
4.4
5件の受講レビュー
受講レビュー 1
∙
平均評価 5.0
5
勉強をせずに社会生活を送ってもいいものかと思っていましたが、そうではないようです。 LLMの概念を教えていただき、ありがとうございます。
ありがとうございます。
受講レビュー 1
∙
平均評価 2.0
修正済み
受講レビュー 1
∙
平均評価 5.0
知識共有者の他の講座を見てみましょう!
同じ分野の他の講座を見てみましょう!
新規会員登録で25%OFF
¥31,348
25%
¥41,798