강의

멘토링

커뮤니티

AI Technology

/

Deep Learning & Machine Learning

神経式のディープラーニング - Gradients and PyTorch's Autograd

ディープラーニングを始めるために必要な基本的な微分法とPyTorchのAutograd機能を学ぶ講義です。

難易度 初級

受講期間 無制限

  • asdfghjkl13551941
Deep Learning(DL)
Deep Learning(DL)
Integral Differential
Integral Differential
PyTorch
PyTorch
Deep Learning(DL)
Deep Learning(DL)
Integral Differential
Integral Differential
PyTorch
PyTorch

神経植のディープラーニング - Gradients and PyTorch's Autograd オープン案内

こんにちは受講生の皆さん!

本日から本格的なディープラーニング講義カリキュラムが開始されますのでご案内いたします😃

私が直接作成する[神経植のディープラーニング(ShinDL)]カリキュラムは、ディープラーニングを基礎から実際の論文レベルの講義まで体系的に扱い、

ディープラーニング技術を直接すべて実装してみながら、完璧にその技術を理解することを目標としたカリキュラムです!

また、ディープラーニングの分野が非常に広いため、大きなボリュームの講義よりもモジュール化して特定のトピックを扱う講義で構成されます。

今回オープンした講義は[神経植のディープラーニング]カリキュラムの最初の講義として、ディープラーニングを正しく理解するために

必須の数学的基盤である「微分」とPyTorchフレームワークのautograd技術を学ぶ講義である

[勾配とPyTorchのAutograd]です。

(講義リンク: https://inf.run/wZoxE)

今後は基本的なディープラーニング技術だけでなく、ディープラーニング論文を基に実戦プロジェクトまで進行する予定ですので、

ディープラーニング学習を準備されている方は、今回の講義から一歩ずつカリキュラムに沿って進めていただければと思います😃

さらに来週、2番目のディープラーニング講義である[Gradient Descent]講義がオープン予定ですので、ご参考ください!

今後、より良い講義を提供できるよう最善を尽くします!

ありがとうございます。

神経植より

コメント