ディープラーニング系の記事では損失関数を定義して終わりという記事をよく見る。 しかしそれでいいのかという疑問があった。 バックプロパゲーションのように、損失関数をどう微分するかが大事なんじゃないか。 損失関数を見ていたら微分が簡単そうには見え…
引用をストックしました
引用するにはまずログインしてください
引用をストックできませんでした。再度お試しください
限定公開記事のため引用できません。