数学から人類を自由にしなさい(線形代数学 Part.I) - ベクトル幾何学
線形代数学の最初の講義として、ベクトルとベクトルの演算を幾何学的に理解する講義です。
Linear Algebra
Linear Algebra
algebra
algebra

神経植のディープラーニング - Gradients and PyTorch's Autograd オープン案内
こんにちは受講生の皆さん!
本日から本格的なディープラーニング講義カリキュラムが開始されますのでご案内いたします😃
私が直接作成する[神経植のディープラーニング(ShinDL)]カリキュラムは、ディープラーニングを基礎から実際の論文レベルの講義まで体系的に扱い、
ディープラーニング技術を直接すべて実装してみながら、完璧にその技術を理解することを目標としたカリキュラムです!
また、ディープラーニングの分野が非常に広いため、大きなボリュームの講義よりもモジュール化して特定のトピックを扱う講義で構成されます。
今回オープンした講義は[神経植のディープラーニング]カリキュラムの最初の講義として、ディープラーニングを正しく理解するために
必須の数学的基盤である「微分」とPyTorchフレームワークのautograd技術を学ぶ講義である
[勾配とPyTorchのAutograd]です。
(講義リンク: https://inf.run/wZoxE)
今後は基本的なディープラーニング技術だけでなく、ディープラーニング論文を基に実戦プロジェクトまで進行する予定ですので、
ディープラーニング学習を準備されている方は、今回の講義から一歩ずつカリキュラムに沿って進めていただければと思います😃
さらに来週、2番目のディープラーニング講義である[Gradient Descent]講義がオープン予定ですので、ご参考ください!
今後、より良い講義を提供できるよう最善を尽くします!
ありがとうございます。
神経植より
コメント




