情報
大学生・専門学校生・社会人
解決済み

的を得ていない質問かもしれませんが、

ディープラーニングなどの理論では偏微分が使われていると思いますが、
実際のプログラムには
どのように表現されているのか
教えていただけませんか

私なりにいくつか考えました。
①極限操作を完全に定義して、実数(∞を含む)上での計算を可能にする。(つまり、微積分を極限から構成)
②使いうる微分の結果のみを定義して、実行させる
(つまり、微分を計算させるのではなく、ある種の関数として定義)
③そもそも微分などしておらず、プログラム自体は一つ一つの細かな微調整をさせていて、結果的に全体をみれば統計的に微分的操作になる。

これらのうちのいずれかではないかと考えていますが、どうなのでしょうか。

数学において極限操作は四則演算とは完全に切り離された操作だと思うので、そこから生まれた微積分をプログラミングではどうやって使っているのか気になりました。

回答

✨ ベストアンサー ✨

計算機で扱うデータは離散的なものなので極限計算ができません。
h→0をしようにも隣のデータが存在してそれ以上hは小さくできないからです。普通は平均変化率を微分の代わりにします。
有名関数を使うときは、有名関数の微分結果のリストを参照して微分計算の代わりにします。

計算機 微分 平均変化率
Apollo

なるほど!平均変化率を使えば四則演算で済みますね、ありがとうございます

この回答にコメントする
疑問は解決しましたか?

この質問を見ている人は
こちらの質問も見ています😉